点击右上角微信好友

朋友圈

请使用浏览器分享功能进行分享

正在阅读:AI心理推断能力或与人类相当
首页> 网安频道> 隐私保护 > 正文

AI心理推断能力或与人类相当

来源:科技日报2024-05-23 21:20

  科技日报北京5月22日电(记者 张梦然)新一期《自然·人类行为》发表论文显示,在测试追踪他人心理状态能力——也称心智理论(Theory of Mind)的任务中,两类大语言模型(LLM)在特定情况下的表现与人类相似,甚至更好。

  心智理论对人类社交互动十分重要,是人类沟通交流和产生共鸣的关键。之前的研究表明,LLM这类人工智能(AI)可以解决复杂的认知任务,如多选决策。不过,人们一直不清楚LLM在心智理论任务(被认为是人类独有的能力)中的表现是否也能比肩人类。

  此次,德国汉堡—埃彭多夫大学医学中心团队选择了能测试心智理论不同方面的任务,包括发现错误想法、理解间接言语以及识别失礼。他们随后比较了1907人与两个热门LLM家族——GPT和LLaMA2模型完成任务的能力。

  团队发现,GPT模型在识别间接要求、错误想法和误导方面的表现能达到甚至超越人类平均水平,而LLaMA2的表现逊于人类水平;在识别失礼方面,LLaMA2强于人类但GPT表现不佳。研究人员指出,LLaMA2的成功是因为回答的偏见程度较低,而不是因为真的对失礼敏感;GPT看起来的失利,其实是因为对坚持结论的超保守态度,而不是因为推理错误。

  研究团队认为,LLM在心智理论任务上的表现堪比人类,不等于它们具有人类般的“情商”,也不意味着它们能掌握心智理论。但他们也指出,这些结果是未来研究的重要基础,并建议进一步研究LLM在心理推断上的表现,以及这些表现会如何影响人类在人机交互中的认知。

[ 责编:刘昊 ]
阅读剩余全文(

相关阅读

您此时的心情

光明云投
新闻表情排行 /
  • 开心
     
    0
  • 难过
     
    0
  • 点赞
     
    0
  • 飘过
     
    0

视觉焦点

  • 孔龙村遗址考古发掘阶段性成果展开幕

  • 探访米兰-科尔蒂纳冬奥会主媒体中心

独家策划

推荐阅读
【回顾】2024年网络公益行动优秀网络公益项目
2025-12-29 11:25
【优秀案例展示|海报】“AI筑梦基础教育”公益项目
2025-12-28 11:10
【优秀案例展示|海报】“AI筑梦基础教育”公益项目
2025-12-28 11:10
【优秀案例展示|海报】阿里公益天天正能量
2025-12-28 11:10
【优秀案例展示|海报】淘宝手艺人·星火扶持计划
2025-12-28 11:10