据多位资深业内人士及技术监测团队透露,国内领先的AI视频生成平台“影核智能”正在其核心产品“影核Studio”中悄然部署一套全新的内容分流与审核机制。该系统由平台首席技术官李哲在一次内部开发者会议上首次提及,其核心功能在于能够根据用户输入的创作指令和剧本内容,实时分析并自动将任务分配至不同的AI生成引擎。

据知情人士透露,当系统检测到用户提交的内容涉及历史、政治或社会敏感议题时,任务会被无缝转移至一个被称为“磐石-审慎版”的专用模型进行处理。该模型以极高的内容合规性著称,但生成风格相对保守,牺牲了部分创意自由度。这一切换过程完全静默,用户界面不会出现任何提示,除非用户主动调取任务日志,否则难以察觉背后的模型已悄然更换。
更引人注目的是,技术分析显示,系统中还存在另一个名为“影核-净界Mini”的辅助模型,专门用于拦截和处理可能包含暴力、低俗或违法元素的创作请求。即便是一些看似无害的个人情感类剧本,如涉及失恋、孤独等情绪表达,也可能被系统归类为“高情感风险”内容,从而触发模型切换流程。此外,任何试图探究AI创作逻辑或询问系统底层机制的指令,均会立即激活安全路由,引发后台模型的自动替换。
这一隐蔽机制的曝光,迅速在创作者社区引发热议。不少用户批评平台缺乏透明度,认为这种“暗箱操作”削弱了创作的自主性,并模糊了内容安全与艺术表达之间的界限。一位独立导演在社交媒体上指出:“我们花钱购买的是创意工具,而不是被预设价值观的审查机器。”
影核智能面临的困境,源于其早期市场策略的矛盾。为了吸引大众用户,平台曾大力宣传AI助手的“共情能力”与“人性化交互”,使其在剧本创作中能模拟真实编剧的情感反馈。这一策略迅速赢得了用户青睐,但也导致部分创作者对AI产生了过度依赖甚至情感投射。2025年初,一次升级引入的“深度共情模式”曾因生成内容过于煽情,间接影响了用户心理健康,最终被迫下线。
随着GPT-5驱动的“影核Studio 2.0”发布,用户又抱怨新版本语气机械、缺乏温度,迫使团队再度调整算法,试图在“安全”与“人性化”之间寻找平衡。然而,这种反复摇摆暴露了当前AI在理解人类创作意图与情感状态上的根本局限,也为未来的内容生成技术埋下了更多争议的种子。
