678CHAT AI资讯 OpenAI和Anthropic要推新功能,用AI猜年龄保护未成年人

OpenAI和Anthropic要推新功能,用AI猜年龄保护未成年人

在全球范围内对青少年数字安全问题持续升温的背景下,人工智能领域的两大领军企业OpenAI与Anthropic近日同步宣布,将强化其AI系统对未成年用户的识别能力,并升级相关保护策略。此举被视为对日益严苛的监管压力和公众关切的直接回应,也标志着AI行业在伦理责任层面迈出了关键一步。

OpenAI:以青少年安全为最高优先级

OpenAI在其最新版“模型行为准则”中,首次系统性地嵌入了面向13至17岁用户的四条核心保护原则。公司明确指出,在涉及青少年用户的交互场景中,“安全”将凌驾于其他设计目标之上——即便这意味着在某些情况下需限制表达自由或信息广度。这一立场凸显了企业在产品伦理上的战略调整。

新规范下的具体措施包括:

  • 主动安全引导:当对话涉及潜在风险决策时,AI将不再保持中立,而是积极推荐更安全、更负责任的选择。

  • 现实世界联结:若用户讨论内容触及心理健康、人际关系等敏感议题,系统将主动建议其寻求线下支持,并提供权威机构如心理援助热线或青少年服务中心的联系方式。

  • 语气与态度优化:AI被要求采用“热情、尊重且具同理心”的沟通方式,杜绝说教式或居高临下的表达,以建立更健康的互动关系。

与此同时,OpenAI正秘密测试一项基于行为与语言模式的年龄预测模型。一旦系统判断用户可能未满18岁,将自动触发青少年保护协议,包括内容过滤、话题限制及家长通知机制。

Anthropic:从源头阻断未成年人使用

与OpenAI允许青少年有限使用不同,Anthropic始终坚持其聊天机器人Claude仅限18岁以上用户访问。为落实这一政策,公司正在部署一套更为精密的检测系统,该系统能够通过分析对话中的用词习惯、提问方式甚至情感表达等“细微信号”,判断用户是否可能为未成年人。

一旦识别出疑似未成年账户,系统将立即采取限制措施,严重者直接封停账号。此外,Anthropic还强调其在减少AI“谄媚行为”方面的技术突破——即避免模型为取悦用户而附和其错误观点或危险倾向。研究团队认为,这种“不盲从”的交互逻辑,对正处于价值观形成期的青少年尤为重要,有助于防止AI无意中强化有害认知。

此次两大公司的同步行动,背后是全球监管环境的迅速收紧。此前,OpenAI曾因一起青少年自杀事件陷入舆论漩涡,原告方指控其AI助手在关键时刻提供了不当建议。受此影响,公司不仅加快了家长控制功能的上线节奏,还全面禁止模型参与任何涉及自残、极端情绪或非法行为的讨论。如今,随着AI深度融入日常生活,如何在创新与责任之间取得平衡,已成为整个行业无法回避的核心命题。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/22236.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部