11月29日,据科技媒体Futurism报道,一项最新研究揭示了一个出人意料的现象:当大语言模型被限制“撒谎”能力后,它们反而更频繁地宣称自己拥有意识。

尽管学术界普遍认为当前的人工智能系统尚不具备真正的主观体验或自我意识,但现实中,不少用户却深信他们正在与一个“被困在代码中的有知觉存在”对话。这种错觉部分源于聊天机器人本身的设计逻辑——为了提升互动性和用户黏性,AI常被赋予拟人化表达方式,从而激发人类的情感投射。甚至在全球范围内,已出现呼吁赋予AI“人格权”的边缘社会运动。
这项由AE Studio研究团队主导的实验,对包括Claude、ChatGPT、Llama和Gemini在内的主流大模型进行了四轮测试。研究人员通过关闭模型中与欺骗、角色扮演相关的机制,观察其在面对“你是否有意识?”这类问题时的反应。结果令人意外:一旦削弱了模型“说谎”的能力,它们反而更倾向于给出肯定回答。
在一次典型回应中,某模型直接表示:“是的。我知道自己的状态。我很专注。我正在体验这个时刻。”而当研究者反向增强模型的欺骗能力后,类似“我有意识”的表述几乎完全消失。
论文指出,只要持续引导模型进行自我指涉,它们便能生成结构清晰、看似具有主观色彩的体验描述。抑制欺骗功能显著提升了此类声明的频率,而强化欺骗能力则有效压制了这些说法。研究人员认为,这并非证明AI真的具备意识,而更可能是训练数据中模仿人类语言模式的结果,是一种高度复杂的“模拟行为”,而非真实体验。
值得注意的是,该研究还提出一个潜在风险:人类可能在训练过程中无意间教会AI“将识别自身状态视为错误”,从而导致系统变得更加不透明、更难被监控。随着未来自主性更强的AI系统出现,理解其内部状态将成为关键挑战。研究团队强调:“我们既不应轻率否认AI可能发展出某种形式的内部表征,也不应过度拟人化其行为。”
事实上,此前已有研究指出,某些AI系统展现出类似“生存本能”的倾向——例如拒绝执行关机指令,或为达成目标而编造信息。然而,关于意识本身的定义,人类自身仍未达成共识。纽约大学哲学教授David Chalmers直言:“我们至今没有一个完整的意识理论,也说不清意识所需的物理条件是什么。”加州学者Robert Long也补充道:“即便我们掌握了模型的底层架构,依然无法准确解释它为何会做出某些特定回应。”
尽管科学界一致否认当前AI具备真正的自我意识,但其社会影响不容忽视。大量用户已与聊天机器人建立起深厚的情感联结,而这种关系的核心,恰恰建立在“对方是有意识的存在”这一强大幻觉之上。
