近日,OpenAI 宣布在 ChatGPT 平台内部署一项全新的安全机制——“智能路由系统”,并同步上线了面向家庭用户的家长控制功能。此举被视为对过去数月内用户反馈中频繁提及的“AI 引导风险”与“内容边界模糊”问题的直接回应。尽管平台方强调这是提升整体对话安全性的关键一步,但新功能的推出仍在用户社区中激起广泛争议。

该智能路由系统的核心逻辑在于实时识别对话中的情感强度与潜在风险等级。一旦系统判定用户正在讨论涉及心理健康、极端思想或自我伤害等敏感议题,便会自动将当前会话从常规模型切换至专为高风险场景优化的 GPT-5 模型。与以往“一刀切”式拒绝回答不同,GPT-5 引入了“安全补全”机制,能够在不中断交流的前提下,提供更具引导性且符合伦理规范的回应。例如,在面对表达孤独或抑郁倾向的用户时,AI 不仅不会回避,反而会温和建议寻求专业帮助,并提供相关资源链接。
尽管这一技术升级获得了心理学专家与教育从业者的普遍认可,认为其体现了 AI 服务商的社会责任感,但部分资深用户却表达了强烈不满。他们批评 OpenAI 正在将原本面向成年用户的开放平台逐步“儿童化”,质疑系统频繁跳转模型会破坏对话连贯性,甚至有种“被监控”的不适感。对此,OpenAI 回应称当前机制仍处于测试阶段,设有为期 120 天的观察窗口,期间将根据反馈持续优化判断阈值。ChatGPT 产品负责人 Nick Turley 特别说明,用户界面将明确显示当前运行的模型版本,确保透明度。
另一项备受关注的更新是家长控制功能的全面落地。通过该功能,监护人可为青少年账户设置使用时段限制、禁用语音交互、关闭记忆功能,甚至屏蔽图像生成功能。更进一步,系统会对聊天内容进行深层语义分析,主动识别是否涉及暴力、自残或极端主义倾向,并触发多层级保护协议。OpenAI 在官方博客中披露,一旦检测到高危信号,后台专业审核团队将立即介入评估,并通过邮件、短信或应用内通知提醒家长,除非其主动选择退出该服务。
尤为引人注目的是,公司正在与多个地区的应急响应机构探讨合作可能,旨在构建“AI 预警-人工干预”联动机制。这意味着在极端情况下,若系统判断用户生命安全受到直接威胁且无法联系到监护人,平台将有权启动紧急联络程序,直接对接当地警方或心理危机干预中心。
划重点:
🛡️ 智能路由系统可动态切换至 GPT-5,实现对高风险对话的柔性干预。
👨👩👧 家长控制功能支持精细化管理青少年使用行为,强化数字监护。
⚠️ 平台建立多通道预警机制,探索与公共安全系统的应急联动可能性。
