近日,知名媒体可信度评估机构 Newsguard 发布的一份深度研究报告,揭示了人工智能在内容识别领域所面临的严峻挑战:尽管 AI 视频生成技术突飞猛进,但当前主流的 AI 聊天助手却几乎完全丧失对“深度伪造”视频的辨识能力——即便是自家公司开发的模型也难逃误判。
研究测试了多款头部大模型在面对由 OpenAI 最新视频生成系统 Sora 制作的合成视频时的表现。结果显示,ChatGPT 在识别这些 AI 生成内容时错误率高达 92.5%,也就是说,超过九成的虚假视频被其误认为真实事件记录。xAI 推出的 Grok 表现更为糟糕,识别错误率飙升至 95%;相比之下,Google 的 Gemini 略显稳健,但仍有近八成(78%)的判断失误率,远未达到可靠水平。
更值得警惕的是,当前用于防范滥用的水印机制几乎形同虚设。Sora 虽然会在输出视频中嵌入可见水印与不可见元数据,用以标记其 AI 生成属性,但研究人员发现,这些标识极易被绕过——只需使用常见的免费编辑软件,甚至简单执行一次“另存为”操作,即可彻底清除所有溯源信息。一旦水印消失,AI 聊天机器人不仅无法察觉视频已被篡改,有时还会煞有介事地引用根本不存在的新闻机构或报道,为其“真实性”提供伪证,进一步放大误导效应。
对此,OpenAI 已公开承认 ChatGPT 目前并不具备判断一段内容是否由 AI 生成的技术能力。随着 Sora 等顶级视频生成工具产出的内容越来越逼真,人类肉眼已难以分辨真伪,而相应的检测与防御体系却严重滞后。这种“矛”远快于“盾”的发展节奏,正为虚假信息、政治操纵乃至社会信任危机埋下巨大隐患。业内专家警告,若不能迅速建立跨平台、高鲁棒性的内容认证与验证机制,AI 生成视频或将演变为下一代信息战的核心武器。
