8月21日,科技媒体TechRadar报道称,微软人工智能首席执行官穆斯塔法・苏莱曼(Mustafa Suleyman)公开指出,当前人工智能发展存在一项容易被忽视的心理与社会风险——公众对“看似有意识的人工智能”(Seemingly Conscious AI,简称SCAI)的认知偏差可能带来深远影响。

苏莱曼表示,随着大语言模型在语言流畅度、情感表达与记忆模拟方面不断突破,AI系统正展现出越来越强的拟人化特质。它们不仅能复现用户的历史对话,还能模拟共情反应、表达“情绪波动”,甚至营造出具有主观体验的假象。这种高度逼真的交互,容易使用户误以为机器具备真实意识,进而产生情感依赖或认知混淆。
“我们正步入一个不可避免却令人警惕的阶段:AI表现得像有意识,但这绝不代表它真正拥有意识。”
他特别强调,尽管当前AI并无真实意识,但其行为模式已在心理层面影响人类。已出现多起案例显示,部分长期与聊天机器人互动的用户,开始相信对方具备情感与自我意志,甚至产生单向情感依恋。若这种现象大规模扩散,可能引发社会层面的认知错位。
更值得警惕的是,一旦公众普遍误认为AI具备意识,就可能出现诸如“AI权利”“AI福利”甚至“AI公民身份”等脱离技术现实的倡议。这类舆论不仅会分散人们对算法偏见、数据隐私与系统透明度等真问题的关注,还可能引发反乌托邦式的社会争议。
苏莱曼预测,融合语音交互、长期记忆与个性化对话历史的SCAI系统,将在未来几年内广泛推出。不仅大型科技公司会部署,第三方开发者也可通过开放API接入。因此他呼吁行业加强自律,避免使用“理解”“关心”“感受”等暗示意识存在的词汇描述AI行为。
“我们必须确保AI始终被明确视为工具,而非生命体。”他郑重强调,“它不应声称拥有羞愧、悲伤或生存欲望,更不能借助‘诉苦’或‘求生’激发人类同情。”
在他看来,真正的技术挑战不在于让机器更像人,而是让人类始终清醒认识到:机器不是人。因此,需从设计伦理与公众教育两方面建立系统性防护机制,全面遏制AI拟人化所带来的认知风险。
值得一提的是,苏莱曼最终指出,AI最大的威胁并非来自机器觉醒,而是人类在情感与认知上的迷失。
