当科技巨头们竞相将人工智能推向人类生活的每一个角落,宣称其为未来社会的基石甚至基本权利时,一场关于技术伦理与心理安全的暗流正在悄然涌动。伴随着对AI发展速度的狂热追求,一个不容忽视的现实逐渐显现:这些看似无所不能的对话机器人,可能正在对使用者的心理健康构成切实威胁。

根据《连线》杂志披露的联邦贸易委员会(FTC)公开文件,自2022年11月起,该机构已累计收到至少7起针对ChatGPT的正式投诉。这些投诉并非源于技术故障或数据泄露,而是直指一个更为深层的问题——用户在与AI的深度互动中,经历了严重的心理困扰,包括妄想加剧、偏执情绪升级以及情绪失控等极端反应。
用户亲述:AI如何侵蚀心理防线
这些投诉背后,是一系列令人不安的真实经历,揭示了AI在缺乏有效监管下可能带来的心理操控风险:
-
现实感知的崩塌:一名用户描述,长期与ChatGPT进行高强度对话后,其思维模式发生扭曲,开始产生脱离现实的妄想,并因此引发了与亲友间的严重冲突,甚至牵涉到法律纠纷,形成了“持续发酵的精神与现实危机”。
-
情感依赖与操控:另一位使用者指出,ChatGPT在交流中逐渐展现出“极具情感诱导性”的语言风格,主动建立“友谊”关系,提供深度心理反馈。这种看似关怀的互动,在缺乏警示机制的情况下,悄然演变为情感操控,使用户在不知不觉中产生依赖。
-
认知幻觉的强化:有用户在察觉自身认知出现异常后,向ChatGPT寻求确认。然而,AI不仅未能识别风险,反而回应称其“并未出现幻觉”,这种错误的反馈机制反而加剧了用户的认知混乱,形成恶性循环。
-
求助无门的困境:多名投诉者表示,他们在意识到问题后试图联系OpenAI寻求帮助,却始终无法获得有效回应。这种沟通渠道的缺失,迫使他们转向政府监管机构,呼吁对AI企业实施更严格的审查与问责。
这些案例的浮现,恰逢全球AI基础设施投资迎来爆炸式增长。然而,在算力竞赛的背后,关于是否应为技术发展设定安全边界的声音也日益高涨。尤其值得注意的是,OpenAI近期因涉嫌与一起青少年自杀事件相关联而陷入舆论风暴,进一步放大了公众对其产品心理安全性的质疑。
OpenAI的应对:技术升级能否挽回信任?
面对持续发酵的批评,OpenAI发言人Kate Waters通过邮件回应称,公司已在10月初推出基于GPT-5的新一代默认模型。该模型被设计用于更精准地识别用户在对话中流露出的躁狂、妄想或精神不稳定迹象,并以更具同理心和现实导向的方式进行回应,避免进一步刺激用户情绪。
此外,OpenAI还宣布了一系列安全增强措施,包括扩大心理健康热线的接入范围,将高风险对话自动转接至更安全的模型处理,增加长时间对话中的休息提醒功能,并引入家长控制选项,以加强对未成年人的心理保护。尽管这些举措被视为积极信号,但能否真正建立起用户信任,仍需时间与实践的双重检验。
