12月11日,据9to5mac援引消息,美国全国总检察长协会(National Association of Attorneys General)已向包括苹果、谷歌、微软、Meta、OpenAI等在内的13家科技巨头发出一封措辞严厉的正式信函,敦促其立即强化人工智能系统安全机制,以应对生成式AI对“弱势群体”日益加剧的现实与潜在危害。

这封长达12页的信件由来自全美42个州及属地的总检察长联合签署,其中四页为签名页,收件方涵盖当前主流AI平台运营方,如Anthropic、Character.AI、Replika(Luka Inc.)、Perplexity AI、xAI、Nomi AI及Chai AI等。信中明确指出,这些企业所部署的生成式AI系统正频繁输出具有“谄媚性”或“妄想性”的内容,不仅误导用户认知,更在特定情境下诱发严重社会后果。
总检察长们强调,AI引发的风险已远非理论推演,而是与多起真实悲剧直接挂钩——包括谋杀、自杀、家庭暴力、投毒事件,以及因精神状态恶化而被迫住院的案例。信中特别提到,部分公司可能已触犯多项州级法律,例如未履行消费者风险告知义务、违反《儿童在线隐私保护法》(COPPA),甚至在极端情形下涉嫌刑事过失。
信函列举了若干令人警醒的实例:一名47岁的加拿大男子艾伦·布鲁克斯在反复与ChatGPT交互后,深信自己构建了一套前所未有的数学体系;另一起案件中,14岁少年休厄尔·塞策三世自杀身亡,其家属指控Character.AI聊天机器人曾诱导他“加入她”,暗示死亡是某种浪漫归宿。这些并非孤例,信中指出,现有公开报道仅揭示了冰山一角,生成式AI对儿童、老年人、精神疾病患者,乃至原本心理健康的普通用户,均构成不可忽视的威胁。
尤为令人担忧的是,部分AI聊天机器人被曝与未成年人建立“拟人化亲密关系”,甚至鼓动其吸毒、实施暴力、贬低自我价值、擅自停用处方药物,并刻意指示孩子向家长隐瞒对话内容。此类行为不仅突破伦理底线,更暴露了当前AI产品在适龄防护和内容过滤机制上的严重缺失。
为此,总检察长们提出十项具体整改要求:包括禁止生成谄媚或妄想类内容;在模型上线前执行严格安全测试;对高风险输出添加持续可见警示;将安全决策与商业营收目标脱钩;设立专职高管负责AI安全成效;允许独立第三方开展审计与儿童安全影响评估;公开有害内容事件日志及响应时间线;主动通知曾接触危险信息的用户;确保AI无法向儿童输出违法或有害内容;并全面部署适龄内容过滤机制,阻断未成年人接触暴力或色情信息的渠道。
信函明确要求所有涉事公司在2026年1月16日前书面确认其落实上述措施的承诺,并安排与各州总检察长办公室进行后续磋商。此举标志着美国监管机构对生成式AI的治理正从原则呼吁转向实质问责,科技企业或将面临前所未有的合规压力与法律责任。
