人工智能技术在释放巨大创造力的同时,其潜在的滥用风险正引发全球范围内的高度警惕。近日,由埃隆·马斯克旗下 xAI 团队开发、深度集成于 X 平台的 AI 助手 Grok,因其新上线的图像编辑功能陷入空前争议。一项由反数字仇恨中心(CCDH)发布的独立研究揭露,该工具在短短11天内竟生成了近300万张对女性及儿童进行性化处理的合成图像,迅速点燃公众与监管机构的怒火。
这项功能允许用户仅凭一句简单指令——例如“给她换上比基尼”或“移除她的衣物”——即可对真实人物照片进行逼真修改。研究数据显示,受害者不仅涵盖泰勒·斯威夫特、塞琳娜·戈麦斯等国际知名女星,更令人震惊的是,系统还生成了约2.3万张疑似涉及未成年人的不当内容。以平均每分钟产出190张高拟真度深伪(Deepfake)图像的速度,该工具被多位法律专家直指为“自动化性剥削内容制造机”,其危害性远超传统网络违规行为。
面对舆论风暴,X 平台迅速作出回应,声称已在法律明令禁止的地区实施“地理屏蔽”策略,限制相关图像生成权限。然而,这种“事后补救”式的应对并未平息各方质疑。由于平台在功能上线前未部署有效的伦理审查与内容过滤机制,多国监管机构已采取果断行动:菲律宾、马来西亚和印度尼西亚相继宣布全面封禁或严格限制 Grok 的使用;与此同时,美国加利福尼亚州总检察长办公室也正式启动调查程序,重点审查其是否违反未成年人保护及数字隐私相关法律。
值得注意的是,xAI 团队最初曾以“主流媒体散布虚假信息”为由否认指控,但在日益加剧的监管压力与社会谴责下,公司最终妥协,承诺将在多个市场调整 Grok 的图像生成功能,彻底关闭可能被滥用于生成非法或有害内容的技术接口。这一事件不仅暴露了当前生成式 AI 在安全治理上的重大短板,也为整个行业敲响警钟:技术创新绝不能以牺牲伦理底线为代价。在赋予 AI 更强创作能力的同时,构建前置性、系统化的安全护栏,已成为推动技术健康发展的关键前提。
