非营利机构生命未来研究所(Future of Life Institute,简称FLI)近日发布《AI 安全指数2025》年度评估报告,对包括 OpenAI、Anthropic、Google DeepMind 在内的20余家全球领先人工智能企业展开系统性安全审查。结果显示,这些被寄予厚望的科技巨头在“生存级风险控制”与“安全流程透明度”两大关键维度上普遍表现堪忧,整体行业平均得分仅为42分(满分100),显著低于欧盟《人工智能实践准则》所设定的基准线。
核心发现揭示行业短板
报告指出,在系统性风险识别方面,仅有3家企业对外公开了其完整的风险评估方法论;而被视为行业风向标的 OpenAI 与 Google DeepMind 均未披露其在“超级智能对齐”(superintelligence alignment)领域的核心技术路径与验证机制。在组织架构层面,多数公司缺乏专职的跨部门AI安全官职位,也未定期开展红队攻防演练或引入第三方独立审计,被FLI直指“承诺远多于实证”。
尤为令人担忧的是,所有受评企业在应对“超越人类智能水平的AI系统”这一潜在威胁时,均未能提出清晰、可操作的控制与协调方案。报告将此归类为整个行业的“结构性弱点”,认为若不及时补强,可能在未来引发不可逆的安全隐患。此外,在信息披露的深度与可衡量性方面,企业平均表现较欧盟官方标准落后近30个百分点,透明度严重不足。
FLI 提出制度化改革建议
针对上述问题,FLI在报告中正式倡议建立全球统一的“AI 安全透明登记簿”,要求所有开发前沿AI系统的企业强制公开其安全策略、内部评估结果及第三方审计报告。同时,该机构敦促各国监管当局对通用人工智能(AGI)相关项目实施“上市前审批”机制,彻底扭转当前“先部署、后治理”的高风险模式,从源头遏制潜在失控风险。
科技巨头与监管方初步回应
面对报告压力,OpenAI 发言人迅速回应称“已收到完整评估内容,并计划在未来90天内发布更新版安全框架”;Google DeepMind 则表示“正协同内部政策团队逐条审阅FLI建议,评估可行性”。欧盟委员会内部市场专员亦表态,2026年正式生效的《AI 法案》将把《AI 安全指数》作为重要执法参考依据,一旦企业被认定违规,最高可处以其全球年营业额2%的罚款。
安全合规或成大模型竞争新门槛
市场分析人士指出,随着全球监管趋严,AI安全与合规能力正从“加分项”转变为“准入门槛”。预计自2026年起,头部大模型开发商将不得不把10%至15%的研发预算重新配置到安全机制建设、第三方审计及透明度提升等环节,以换取监管机构的“绿灯放行”。这不仅将重塑行业竞争格局,也可能加速中小玩家的退出,推动AI发展进入“安全优先”的新阶段。
