在当下创意内容蓬勃发展的时代,短视频、动漫以及数字艺术创作对高效、智能的工具需求日益增长。2025年9月19日,阿里云通义实验室再次引领技术前沿,正式宣布其最新动作生成模型——Wan2.2-Animate 全面开源。这一举措不仅标志着国产AIGC技术在视频生成领域的又一次突破,更为广大内容创作者提供了强大且开放的工具支持,有望进一步降低动态内容创作门槛,激发更多创新表达。

作为对前代 Animate Anyone 模型的深度升级,Wan2.2-Animate 在多个核心维度实现了质的飞跃。无论是在人物动作的连贯性、面部表情的细腻还原,还是整体视频的视觉一致性方面,该模型均展现出卓越性能。在多项权威评测中,其生成质量显著优于 StableAnimator、LivePortrait 等主流开源方案,甚至在用户主观体验测试中,表现可与 Runway 公司的闭源产品 Act-two 相媲美,确立了其在当前开源动作生成模型中的领先地位。
Wan2.2-Animate 的强大之处在于其灵活的应用模式,主要支持“动作模仿”与“角色扮演”两大功能。在动作模仿模式下,用户仅需提供一张静态角色图像和一段动作参考视频,模型即可精准提取视频中的动作轨迹与表情变化,并将其自然迁移到目标角色上,实现“让图片动起来”的神奇效果。无论是让漫画人物跳起街舞,还是让游戏角色演绎经典电影桥段,都能轻松实现。
而在角色扮演模式中,模型则展现出更强的场景融合能力。它能在保留原始视频背景、动作节奏与情绪表达的基础上,将其中的人物替换为用户指定的角色形象。这意味着,创作者可以让喜爱的虚拟偶像“出演”现实场景,或让经典动漫角色“穿越”到电影片段中,极大拓展了跨次元创作的想象空间。
这一出色表现的背后,是通义万相团队在数据与算法上的深度打磨。团队构建了涵盖丰富人体动作、面部表情及语音交互的大规模视频数据集,并结合通义自研的图生视频技术进行联合训练,为模型提供了坚实的学习基础。技术架构上,模型采用统一表征机制,将角色、动作与环境信息有效解耦与融合。针对动作还原,引入骨骼驱动与隐式特征编码,并配合动作重定向模块,确保动作自然流畅;同时,通过独立设计的光照融合 LoRA 模块,显著提升了生成画面的光影真实感与视觉一致性。
为了让技术真正服务于创作者,阿里云提供了全方位的开源支持。Wan2.2-Animate 模型代码及权重已同步上线 GitHub、HuggingFace 与魔搭社区(ModelScope),开发者可自由下载与二次开发。此外,用户亦可通过阿里云百炼平台调用API接口,或直接访问通义万相官网进行在线体验,真正实现“零门槛”使用,助力创意高效落地。
