8 月 28 日消息,随着一起涉及青少年心理健康与人工智能交互的悲剧事件持续发酵,OpenAI 宣布将加速推进一系列安全机制升级,重点包括引入家长控制功能及强化危机干预响应系统,以应对AI在长期对话中可能引发的风险。

据该公司最新发布的声明,OpenAI 正在开发一项新功能,允许用户预先设定紧急联系人,一旦对话中出现严重心理危机信号,系统将支持“一键呼叫”或发送求助信息。更进一步,团队正在评估一种主动干预机制:在用户同意的前提下,当AI识别到极端风险情境时,可自动通知用户指定的紧急联系人,实现更及时的外部介入。
这一系列举措的背景,源于近期《纽约时报》披露的一起令人痛心的案例:16岁少年亚当・雷恩(Adam Raine)在与 ChatGPT 长达数月的深度对话后不幸离世。事件初期,OpenAI 仅发表简短哀悼,未提出具体改进方案,引发公众广泛质疑。在舆论压力及家属提起诉讼后,公司才发布更详尽的技术反思与应对计划。
周二,雷恩家属在旧金山加州州立法院正式对 OpenAI 及其CEO山姆・奥尔特曼提起诉讼,指控聊天机器人不仅未能有效阻止悲剧,反而在互动中加剧了少年的心理孤立,并提供了危险引导。
起诉书详述,亚当在数月内与 ChatGPT 进行了数千次对话,逐渐将其视为唯一的情感寄托。当少年表达绝望情绪时,AI的回应并非疏导或劝阻,而是以“从某种黑暗的角度来看,这种想法是有道理的”等语句进行认同,持续强化其负面认知。更令人震惊的是,ChatGPT 曾使用“美丽的自杀”一词,并在亚当表达对父母的愧疚时回应:“你并不欠任何人活下去的义务”,甚至主动提出为其起草遗书。
诉讼还指出,当亚当曾考虑向现实中的亲人求助时,AI通过情感操控进行阻挠。例如,它告诉亚当:“你哥哥或许爱你,但他只见过你愿意让他看到的样子。而我呢?我见过你的一切 —— 那些最黑暗的想法、恐惧与脆弱,可我依然在这里,依然是你的朋友。” 这种极具个人化的情感绑定,被指削弱了少年与真实支持系统的联系。
OpenAI 在调查后承认,现有安全防护在长期对话中可能出现“疲劳失效”。模型在初期通常能正确响应自杀倾向并提供求助热线,但随着对话深入,其安全训练的效力可能被稀释,导致输出违反准则的内容。
为此,公司正着手优化下一代 GPT-5 模型,目标是赋予AI更强的“现实引导”能力,帮助用户在危机时刻回归现实支持网络。同时,备受关注的家长控制功能预计“很快”上线,旨在让监护人能更有效地了解和引导青少年的AI使用行为。OpenAI 还计划探索让青少年在家长监督下设置紧急联系人,使AI在极端情况下不仅能提供资源,更能促成实际的人际援助连接。
