长久以来,人工智能是否终将超越人类智慧的讨论从未停歇,但一项最新研究却揭示了一个出人意料的反差:当前最前沿的大模型,如ChatGPT和Claude,并非高估了自己的能力,而是“高估”了人类——它们倾向于把人类想象得过于理性、逻辑缜密,而现实中的我们,远没有那么“聪明”。
为了验证这一现象,研究团队采用了博弈论中著名的“凯恩斯选美比赛”实验框架。在这个猜数字游戏中,参与者需要猜测其他人的平均选择,并据此调整自己的答案以趋近胜利条件。理论上,这要求玩家进行多层递归推理——“我认为别人会怎么想,别人又会认为我会怎么想”……然而大量实证表明,普通人在实际操作中往往只能进行一到两层推理,甚至直接凭直觉作答。令人意外的是,当AI与人类对战时,尽管它能识别对手身份(例如是经济学专业学生还是普通网民),并据此微调策略,但它仍默认人类会进行深度逻辑推演。这种“把人当专家”的预设,反而使其在预测真实人类行为时频频失算。
研究指出,这种认知偏差并非源于AI缺乏数据或训练不足,恰恰相反,是因为模型在学习过程中过度吸收了理想化的人类决策范式——比如教科书中的博弈解法、学术论文中的理性假设,却未能充分捕捉日常情境下人类常见的冲动、偏见与认知局限。结果就是,AI在模拟人格特征时表现惊艳,但在涉及真实市场行为、消费者选择或群体互动等场景中,其预测能力可能因“过度理性化”而大打折扣。
划重点:
-
🧠 理想化滤镜太重:主流大语言模型在建模人类决策时,默认采用高度理性的假设,忽视了情绪、习惯与信息不对称等现实因素。
-
🎯 聪明反被聪明误:AI因预设人类具备多层推理能力,在博弈实验中反而做出偏离实际的判断,导致策略失效。
-
⚠️ 落地应用需谨慎:若不修正这一认知偏差,AI在金融预测、政策模拟、用户行为分析等关键领域可能产生系统性误判,影响决策质量。
