678CHAT AI资讯 研究发现 ChatGPT、Claude 这些模型把人类想得太聪明了

研究发现 ChatGPT、Claude 这些模型把人类想得太聪明了

长久以来,人工智能是否终将超越人类智慧的讨论从未停歇,但一项最新研究却揭示了一个出人意料的反差:当前最前沿的大模型,如ChatGPT和Claude,并非高估了自己的能力,而是“高估”了人类——它们倾向于把人类想象得过于理性、逻辑缜密,而现实中的我们,远没有那么“聪明”。

为了验证这一现象,研究团队采用了博弈论中著名的“凯恩斯选美比赛”实验框架。在这个猜数字游戏中,参与者需要猜测其他人的平均选择,并据此调整自己的答案以趋近胜利条件。理论上,这要求玩家进行多层递归推理——“我认为别人会怎么想,别人又会认为我会怎么想”……然而大量实证表明,普通人在实际操作中往往只能进行一到两层推理,甚至直接凭直觉作答。令人意外的是,当AI与人类对战时,尽管它能识别对手身份(例如是经济学专业学生还是普通网民),并据此微调策略,但它仍默认人类会进行深度逻辑推演。这种“把人当专家”的预设,反而使其在预测真实人类行为时频频失算。

研究指出,这种认知偏差并非源于AI缺乏数据或训练不足,恰恰相反,是因为模型在学习过程中过度吸收了理想化的人类决策范式——比如教科书中的博弈解法、学术论文中的理性假设,却未能充分捕捉日常情境下人类常见的冲动、偏见与认知局限。结果就是,AI在模拟人格特征时表现惊艳,但在涉及真实市场行为、消费者选择或群体互动等场景中,其预测能力可能因“过度理性化”而大打折扣。

划重点:

  • 🧠 理想化滤镜太重:主流大语言模型在建模人类决策时,默认采用高度理性的假设,忽视了情绪、习惯与信息不对称等现实因素。

  • 🎯 聪明反被聪明误:AI因预设人类具备多层推理能力,在博弈实验中反而做出偏离实际的判断,导致策略失效。

  • ⚠️ 落地应用需谨慎:若不修正这一认知偏差,AI在金融预测、政策模拟、用户行为分析等关键领域可能产生系统性误判,影响决策质量。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/22398.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部