作加

阿里云开源新一代动作生成神器 Wan2.2-Animate,视频创作将被彻底颠覆?


视频创作新纪元:Wan2.2-Animate 开源来袭

在 AI 生成内容(AIGC)飞速发展的今天,阿里云再次引领技术前沿,正式开源了通义万相旗下全新动作生成模型 Wan2.2-Animate。这一模型的发布,不仅为短视频创作、动画制作、虚拟人设计等领域注入了全新活力,更让普通用户也能轻松上手,生成高质量的动态内容。

如果你是内容创作者、动画师,或者对 AI 技术充满兴趣,那这个模型绝对值得你关注。

两种模式,解锁无限创意

Wan2.2-Animate 是在前代模型 Animate Anyone 的基础上全面升级而来,其核心亮点在于支持 两种主流应用模式

  • 动作模仿模式:只需一张角色图片和一段参考视频,模型就能将视频中的动作和表情“迁移”到你的角色上,让静态图像“活”起来。
  • 角色扮演模式:保留原视频的动作、表情和背景环境,仅将视频中的人物替换为你提供的角色,实现无缝角色替换。

这两种模式的结合,不仅提升了生成内容的表现力,也为创作者提供了更多自由发挥的空间。

技术升级:更精准、更自然的动作还原

为了让生成效果更上一层楼,阿里云团队构建了一个涵盖说话、表情、肢体动作等多维度的大规模人物视频数据集,并结合通义万相的图生视频技术进行训练。

Wan2.2-Animate 的架构设计也颇具巧思:它将角色信息、环境信息和动作信号统一编码,兼容两种推理模式。具体来说:

  • 身体动作通过骨骼信号建模;
  • 面部表情则使用隐式特征表达;
  • 配合动作重定向模块,实现高精度的动作复刻;
  • 更有专门设计的 光照融合 LoRA 模块,确保画面光照自然统一。

性能碾压:开源模型中的“顶流”

在实际测试中,Wan2.2-Animate 的表现令人惊艳。无论是在视频生成质量、角色一致性还是感知损失等关键指标上,它都显著优于多个主流开源模型,如 StableAnimatorLivePortrait,成为目前性能最强的动作生成模型之一。

更值得一提的是,在用户主观评测中,它的表现甚至超越了像 Runway Act-two 这样的闭源商业模型。

开源开放,助力内容生态繁荣

Wan2.2-Animate 已通过多个平台全面开源,包括:

  • GitHub
  • HuggingFace
  • 阿里云魔搭 ModelScope 社区

此外,用户还可以通过阿里云 百炼平台 调用 API,或直接在 通义万相官网 体验模型功能。

这一开源举措无疑将大大降低动作生成技术的使用门槛,推动短视频、动画、虚拟主播等领域的创新发展。

总结

阿里云 Wan2.2-Animate 的开源,标志着 AI 动作生成技术迈入了一个新阶段。它不仅技术先进、性能卓越,更以开放姿态赋能每一位创作者。未来,我们或许会看到更多由 Wan2.2-Animate 驱动的创意视频、虚拟角色和互动内容,真正实现“人人皆可创作”。

如果你也想试试这个模型,不妨前往开源平台下载体验,开启你的 AI 动画之旅吧!