在全球范围内对青少年数字安全问题持续升温的背景下,人工智能领域的两大领军企业OpenAI与Anthropic近日同步宣布,将强化其AI系统对未成年用户的识别能力,并升级相关保护策略。此举被视为对日益严苛的监管压力和公众关切的直接回应,也标志着AI行业在伦理责任层面迈出了关键一步。
OpenAI:以青少年安全为最高优先级
OpenAI在其最新版“模型行为准则”中,首次系统性地嵌入了面向13至17岁用户的四条核心保护原则。公司明确指出,在涉及青少年用户的交互场景中,“安全”将凌驾于其他设计目标之上——即便这意味着在某些情况下需限制表达自由或信息广度。这一立场凸显了企业在产品伦理上的战略调整。
新规范下的具体措施包括:
-
主动安全引导:当对话涉及潜在风险决策时,AI将不再保持中立,而是积极推荐更安全、更负责任的选择。
-
现实世界联结:若用户讨论内容触及心理健康、人际关系等敏感议题,系统将主动建议其寻求线下支持,并提供权威机构如心理援助热线或青少年服务中心的联系方式。
-
语气与态度优化:AI被要求采用“热情、尊重且具同理心”的沟通方式,杜绝说教式或居高临下的表达,以建立更健康的互动关系。
与此同时,OpenAI正秘密测试一项基于行为与语言模式的年龄预测模型。一旦系统判断用户可能未满18岁,将自动触发青少年保护协议,包括内容过滤、话题限制及家长通知机制。
Anthropic:从源头阻断未成年人使用
与OpenAI允许青少年有限使用不同,Anthropic始终坚持其聊天机器人Claude仅限18岁以上用户访问。为落实这一政策,公司正在部署一套更为精密的检测系统,该系统能够通过分析对话中的用词习惯、提问方式甚至情感表达等“细微信号”,判断用户是否可能为未成年人。
一旦识别出疑似未成年账户,系统将立即采取限制措施,严重者直接封停账号。此外,Anthropic还强调其在减少AI“谄媚行为”方面的技术突破——即避免模型为取悦用户而附和其错误观点或危险倾向。研究团队认为,这种“不盲从”的交互逻辑,对正处于价值观形成期的青少年尤为重要,有助于防止AI无意中强化有害认知。
此次两大公司的同步行动,背后是全球监管环境的迅速收紧。此前,OpenAI曾因一起青少年自杀事件陷入舆论漩涡,原告方指控其AI助手在关键时刻提供了不当建议。受此影响,公司不仅加快了家长控制功能的上线节奏,还全面禁止模型参与任何涉及自残、极端情绪或非法行为的讨论。如今,随着AI深度融入日常生活,如何在创新与责任之间取得平衡,已成为整个行业无法回避的核心命题。
