数字生命卡兹克 10月30日 13:10
阿里开源模型Wan2.2 Animate:换脸变声,真假难辨
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

阿里开源的Wan2.2 Animate模型近期再次引发关注,它能够利用一张照片和一段视频,生成极其自然的换脸视频,表情动作复刻到位。该模型不仅能用于娱乐创作,如生成舞蹈视频或影视二创,还能通过变声技术实现音画同步。虽然目前尚不支持实时输出,但其开源特性为企业、剧组和独立动画师提供了低成本的创作可能性。然而,这项技术也可能动摇现实世界的信任基础,需要警惕其潜在的滥用风险。

🎭 **AI换脸技术突破:** 阿里开源的Wan2.2 Animate模型能够通过用户提供的一张静态照片和一段视频,生成高度逼真、表情和动作皆高度契合的换脸视频。该技术模仿能力强大,即使是复杂表情也能精确复刻,为视频内容创作带来了革新。

🎤 **声音与形象的融合:** 除了视觉上的换脸,Wan2.2 Animate还可以结合变声技术,实现声音和形象的同步替换。用户可以通过简单的工具合成声音,使得生成的视频在音画效果上更加完整和自然,极大地拓展了虚拟形象的应用场景。

🎬 **多场景应用潜力:** 该模型不仅可用于制作趣味性强的娱乐内容,如生成舞蹈视频、影视二创(例如让不同角色出演经典片段),还能为独立动画师和影视制作提供强大的支持。其开源特性使得企业和剧组能够进行私有化部署,用于特效、数字替身和虚拟演员等领域,解放了生产力。

⚖️ **技术双刃剑的警示:** 尽管Wan2.2 Animate在技术上具有积极意义,但其强大的逼真生成能力也引发了对现实世界信任基础的担忧。高度逼真的虚假视频可能被滥用于传播不实信息,对个人和公众信任构成严重挑战,因此,负责任地使用和警惕滥用是关键。

原创 数字生命卡兹克 2025-10-30 09:31 北京

榜一大哥的噩梦来了

最近,一个视频在推上传疯了。

一张美女照片,加上一条自己录制的视频,就能生成一张极其自然的换脸视频,表情和动作复刻的都很好。

而它用到的,就是阿里家的开源模型,Wan2.2 Animate。

其实Wan2.2 Animate一个月前杠发布的时候就火过一波,不知道你们对这个宅男变身女主播的视频眼熟不,当时我刷到了n次。

然后你会发现,这次再火起来,流量密码依然没变。

搞颜色还是第一生产力。。。

但你们都知道,一个模型,它能搞颜色,不代表它只能搞颜色。

相反,很可能意味着它上限很高。。。

毕竟在座的各位都是老司机,阅历惊人,出来的效果如果哪里不自然,大概率一眼就看得出来。

至于效果,直接给大家看看,我用我自己的视频加上不同角色的图片,做出来的效果。

更复杂的表情,它也能复刻。

由于我自己确实是个不爱拍照的I人,表情没那么丰富,这里借用听泉老师代为出镜一下。

再加上一个美女。

出来的效果是这样的。表情模仿确实很到位,就是感觉高冷美女一下子变成东北银了。

想得到更逼真的效果呢,还可以变声线。

直接做一条声音来替换就行,海螺+剪映就可以实现。

这样就能同时替换形象和声音了。

我用海螺做了声音,出来的效果是这样的。

你也很难想象这个视频的背后是一个我这样的糙老爷们对不对。

所以,不多说什么了,朋友们,网恋有风险,奔现需谨慎。。。

万幸的是,现在的Wan2.2 Animate还不能做到实时输出,否则你想一下,假设以后郭老师,良子这些人也能当颜值主播开直播了,那会是一个怎样的世界。。。

当然了,类似于这种在违法边缘疯狂大鹏展翅的事情,我不会干,而且我也,绝对绝对,不希望任何人这么干。

不过话说回来,如果你的诉求就只是想给自己整一些小哥哥小姐姐的舞蹈视频看,用它还是很方便的。

也可以拉一个你喜欢的角色来复刻跳舞,比mmd方便多了。

动作表情啥的都挺到位的,但也有个问题,就是,一旦手部动作多了,手指还是很容易崩坏。

这个问题目前比较无解,很难顶。

除了跳舞之外,还可以做一些影视二创。

比如,让赵本山出演《了不起的盖茨比》,还原小李子经典镜头。

Welcome to 乡村大舞台,有梦你就来。

还有这个经典的梗,接着奏乐接着舞,可以直接换了一个人来演。

当然,我推荐这个模型的原因不只是因为效果好。

类似的东西去年就有了,Runway,Viggle,都能实现。

但问题是,这些模型都不开源。

像Wan2.2 Animate这样一直走在开源路上的,已经不多了。。。

想玩这个模型,最简单的方法就是去通义万相官网,网址在这里:

https://tongyi.aliyun.com/wan/explore

进去之后在底部这里,找到数字人。

然后选择角色替换或者动作模仿,选择专业模式输出,再上传参考图和参考视频,就OK了。

简单说一下动作模仿和角色替换的区别。

假设我们现在有一张参考图A,主体为A,背景为A,一个参考视频B,主体为B,背景为B。

动作模仿就是,主体A在背景A里,做着主体B的动作。

也就是让参考图动起来,模仿视频中的动作和表情。

角色替换则是,主体A在背景B里,做主体B的动作。

就是保留原视频的背景环境,用参考图中的角色替换视频中的角色。

这里面还有一个小技巧,就是,如果想要达到开头case那种只换脸不换背景的效果,可以多加一个流程:在视频中截一帧,用这一帧图和角色图,在seedream或者nano banana上,生成一张和视频中背景完全一致的图,把这张图作为生成视频的参考图。

举个例子,这张拼图的左边,是我从视频里截的一帧,右边是我生成的用于替换我自己的角色图。

然后我用即梦,生成了一张和视频中背景一致的图,长这样。

最后把这张图放进去跑case,出来的就是一张,和原背景一模一样的换脸视频了。

有了这些输入,你基本上就可以愉快地开始玩耍了。

如果你想进行本地部署的话,Wan2.2 Animate也完全开源了:

https://github.com/Wan-Video/Wan2.2

目前也支持了ComfyUI。

从技术的角度看,Wan2.2 Animate的意义,绝对是积极的。

它把过去需要昂贵动捕设备、专业动画师才能实现的表情和动作捕捉,变成了一个普通人点几下鼠标就能完成的事情。

而且,是开源的。

这也意味着,真的可以进入到企业、剧组里,进行私有化部署,来做很多的实际效果。

这也意味着很多独立动画师,可以用极低的成本,让自己的角色活起来。

更意味着电影制作,可以在特效、数字替身、甚至虚拟演员这些领域,打开全新的想象空间。

要知道,专业动捕真的很贵的。。。

而且,除了用Wan2.2 Animate来去做角色替换之外,还有一些其他的流程,也是很好玩的。

比如,我的好基友@GongWangG,在组里用Wan2.1-Vace,玩的实验小demo,Wan2.2 Animate不是做角色替换嘛,但用Wan2.1-Vace,也可以用来保持角色一致性,但更改掉整个背景做实拍合成VFX。

这种流程,也是非常酷的。

未来我们也许能看到已经逝去的演员,在新电影里“复活”,用AI完美复刻他们的音容笑貌和表演风格,也许也能看到很多经典的场景被复刻出现,而我们就在其中畅游。

这在技术上,已经不再是科幻。

它降低了创作的门槛,解放了生产力。

但是。

凡事,就怕这个但是。

这些技术,同样可以,毫不费力地,割开我们现实世界的信任基石。

就说一个最实际的。

你在网上看到一段视频,某个公众人物,说着极其出格的话,做着极其不齿的事,视频看起来天衣无缝,没有任何破绽,你信不信?

所以我说,我之前还犹豫了一下,要不要写这篇文章。

但想了想,最后还是决定写出来了。

我们理应看见它的好,也看见它的坏。

技术永远是中立的。

它就像火,可以取暖,也可以焚城。

但真正重要的。

是那群握着火把的人。

我相信,我们还是一群。

用火取暖的人。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克、水杉

>/ 投稿或爆料,请联系邮箱:wzglyay@virxact.com

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Wan2.2 Animate AI换脸 数字人 开源模型 深度伪造 Face Swapping AI Art Open Source Deepfake
相关文章