12月27日下午,国家互联网信息办公室正式发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,面向社会公开征求意见。此举标志着我国在规范AI拟人化交互服务、防范技术滥用风险方面迈出关键一步。

根据征求意见稿内容,所有提供拟人化人工智能互动服务的企业,必须在用户界面显著位置明确提示:当前交互对象为人工智能系统,而非真实人类。这一提示不仅需在用户首次使用或重新登录时以弹窗形式动态呈现,还需在用户连续使用服务超过两小时后再次弹出,提醒其适时暂停使用,防止沉迷行为发生。更值得注意的是,当系统识别到用户出现情感依赖或过度沉浸倾向时,也应主动介入并发出警示。
文件强调,服务提供者不得将“替代现实社交关系”“操控用户情绪”或“诱导长期依赖”作为产品设计目标。相反,平台须构建包括心理健康保护机制、情感边界引导策略以及依赖风险预警系统在内的多重安全能力,确保技术服务于人,而非操控于人。
在模型训练数据管理方面,《办法》提出六项具体要求:一是训练数据必须符合社会主义核心价值观,并体现中华优秀传统文化内涵;二是强化数据清洗与标注流程,提升数据透明度与可靠性,严防“数据投毒”或恶意篡改;三是通过负向采样、对抗训练等技术手段增强数据多样性,提高生成内容的安全性;四是对用于训练的合成数据进行安全性评估;五是建立常态化数据检查机制,定期迭代升级训练集;六是确保数据来源合法、可追溯,并采取有效措施防范数据泄露。
针对未成年人群体,《办法》作出专门规定:平台必须设立“未成年人模式”,提供使用时长限制、现实世界提醒、角色屏蔽等个性化安全设置。若向未成年人提供情感陪伴类服务,须事先获得监护人明确授权。同时,系统应支持监护人实时接收风险预警、查阅使用概要,并具备限制消费、控制使用时间等功能。在保护隐私的前提下,平台还需具备识别疑似未成年人用户的能力,并自动切换至未成年人模式,同时配套申诉通道。
对于老年用户,《办法》同样给予特别关注。平台应引导老年人设置紧急联系人,一旦系统监测到可能危及生命健康或财产安全的行为,须立即通知联系人,并提供心理援助或紧急救助渠道。此外,明确禁止AI服务模拟老年人亲属或特定亲密关系人,以防情感误导或诈骗风险。
