掘金 人工智能 09月12日
Wan2.2-S2V-14B音频驱动视频生成模型介绍
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Wan2.2-S2V-14B是阿里巴巴通义万相团队开源的音频驱动多模态视频生成模型,能以静态图片和音频生成电影级数字人视频,具有高保真度、自然表情、精准口型同步和流畅动作的特点。模型支持多种图像类型和文本引导控制,并能长时间稳定生成视频,适用于多种应用场景。

🌟 Wan2.2-S2V-14B模型能将静态图片和音频转化为电影级数字人视频,生成的视频具有高保真度,细节逼真,动作自然流畅,展现出强大的多模态理解和生成能力。

🗣️ 模型在口型同步方面表现出色,生成的视频唇动与语音高度吻合,达到电影级效果,为数字人视频创作提供精准的视觉表现。

🎬 Wan2.2-S2V-14B支持多种图像类型,包括真人、卡通角色、动物和虚拟数字人等,涵盖头像、半身、全身等不同构图,具有广泛的兼容性。

✍️ 用户可通过文本提示(Prompt)对视频中的人物动作、表情及背景进行调控,增强画面动态表现力,提供丰富的创作自由度。

⏳ 模型采用层次化帧压缩等技术,显著提升了长时间视频生成的连贯性与稳定性,支持分钟级视频生成,满足复杂场景的需求。

📦 Wan2.2-S2V-14B支持多种分辨率输出,适应不同平台和设备的应用需求,具有灵活的部署和适配能力。

一、介绍

Wan2.2-S2V-14B 是阿里巴巴通义万相团队在8月底开源的一款音频驱动的多模态视频生成模型。

为了解决实现电影级角色动画这一长期挑战,团队提出了一种基于 Wan 的音频驱动模型,称之为 Wan-S2V。与现有方法相比,该模型在电影情境下显著增强了表现力和保真度。它仅需一张静态图片和一段音频,就能生成面部表情自然、口型精准同步、肢体动作流畅的电影级数字人视频,单次生成时长甚至可达分钟级。

核心功能与亮点:

Wan2.2-S2V-14B 的核心能力在于其出色的多模态理解和生成能力:

高质量视频生成:模型能生成细节逼真、动作自然的数字人视频。

出色的口型同步(Lip Sync):模型生成的视频,其唇动与语音高度吻合。

广泛的兼容性:支持驱动真人、卡通角色、动物、虚拟数字人等多种图像类型,涵盖头像、半身、全身等不同构图。

文本引导控制:用户可通过输入文本提示(Prompt),对视频中的人物动作、表情及背景变化进行调控,从而增强画面动态表现力。

长时间稳定生成:模型采用层次化帧压缩等技术,显著提升了长时间视频生成的连贯性与稳定性。

多分辨率适配:支持多种分辨率输出,能满足不同平台和设备的应用需求。

二、部署过程

基础环境最低要求说明:

环境名称版本信息 1
Ubuntu22.04
CudaV12.4
Python3.12
NVIDIA CorporationRTX 4090 * 1

1. 更新基础软件包

查看系统版本信息

# 查看系统版本信息,包括ID(如ubuntu、centos等)、版本号、名称、版本号ID等cat /etc/os-release

配置 apt 国内源

# 更新软件包列表apt-get update

这个命令用于更新本地软件包索引。它会从所有配置的源中检索最新的软件包列表信息,但不会安装或升级任何软件包。这是安装新软件包或进行软件包升级之前的推荐步骤,因为它确保了您获取的是最新版本的软件包。

# 安装 Vim 编辑器apt-get install -y vim

这个命令用于安装 Vim 文本编辑器。-y 选项表示自动回答所有的提示为“是”,这样在安装过程中就不需要手动确认。Vim 是一个非常强大的文本编辑器,广泛用于编程和配置文件的编辑。

为了安全起见,先备份当前的 sources.list 文件之后,再进行修改:

# 备份现有的软件源列表cp /etc/apt/sources.list /etc/apt/sources.list.bak

这个命令将当前的 sources.list 文件复制为一个名为 sources.list.bak 的备份文件。这是一个好习惯,因为编辑 sources.list 文件时可能会出错,导致无法安装或更新软件包。有了备份,如果出现问题,您可以轻松地恢复原始的文件。

# 编辑软件源列表文件vim /etc/apt/sources.list

这个命令使用 Vim 编辑器打开 sources.list 文件,以便您可以编辑它。这个文件包含了 APT(Advanced Package Tool)用于安装和更新软件包的软件源列表。通过编辑这个文件,您可以添加新的软件源、更改现有软件源的优先级或禁用某些软件源。

在 Vim 中,您可以使用方向键来移动光标,i 键进入插入模式(可以开始编辑文本),Esc 键退出插入模式,:wq 命令保存更改并退出 Vim,或 :q! 命令不保存更改并退出 Vim。

编辑 sources.list 文件时,请确保您了解自己在做什么,特别是如果您正在添加新的软件源。错误的源可能会导致软件包安装失败或系统安全问题。如果您不确定,最好先搜索并找到可靠的源信息,或者咨询有经验的 Linux 用户。

使用 Vim 编辑器打开 sources.list 文件,复制以下代码替换 sources.list 里面的全部代码,配置 apt 国内阿里源。

deb http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiversedeb-src http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiversedeb http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiversedeb-src http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiversedeb http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiversedeb-src http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiversedeb http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiversedeb-src http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse

安装常用软件和工具

# 更新源列表,输入以下命令:apt-get update# 更新系统软件包,输入以下命令:apt-get upgrade# 安装常用软件和工具,输入以下命令:apt-get -y install vim wget git git-lfs unzip lsof net-tools gcc cmake build-essential

出现以下页面,说明国内 apt 源已替换成功,且能正常安装 apt 软件和工具

2. 安装 Miniconda

# 下载 Miniconda 安装脚本wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh# 运行 Miniconda 安装脚本bash Miniconda3-latest-Linux-x86_64.sh# 初次安装需要激活 base 环境source ~/.bashrc

按下回车键(enter)

输入 yes

输入 yes

安装成功如下图所示

pip 配置清华源加速

# 编辑 /etc/pip.conf 文件vim  /etc/pip.conf

加入以下代码

[global]index-url = https://pypi.tuna.tsinghua.edu.cn/simple

注意事项:

3. 从 github 仓库 克隆项目

# 克隆项目git clone https://github.com/comfyanonymous/ComfyUI

请注意,如果 git clone https://github.com/comfyanonymous/ComfyUI 这个链接不存在或者无效,git clone 命令将不会成功克隆项目,并且会报错。确保链接是有效的,并且您有足够的权限访问该存储库。

4. 创建虚拟环境

# 创建一个名为 comfyenv 的新虚拟环境(名字可自定义),并指定 Python 版本为 3.12conda create -n comfyenv python=3.12 -y

5. 安装模型依赖库

# 切换到 ComfyUI 项目工作目录cd /ComfyUI# 激活 comfyenv 虚拟环境conda activate comfyenv# 在 comfyenv 环境中安装依赖pip install -r requirements.txt

6. 下载模型相关文件

#激活虚拟环境conda activate comfyenv#使用 huggingface-cli 下载模型pip install "huggingface_hub[cli]"
#切换到目录ComfyUI/models/diffusion_modelscd ComfyUI/models/diffusion_models#下载模型,您可以根据自身需求下载,此处以wan2.2_s2v_14B_fp8_scaled.safetensors为例hf download Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/diffusion_models wan2.2_s2v_14B_fp8_scaled.safetensors --local-dir ./
#切换到目录ComfyUI/models/text_encoderscd ComfyUI/models/text_encoders#下载命令hf download Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/text_encoders umt5_xxl_fp8_e4m3fn_scaled.safetensors --local-dir ./
#切换到目录ComfyUI/models/vaecd ComfyUI/models/vae#下载命令hf download Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/vae wan_2.1_vae.safetensors --local-dir ./
#切换到目录ComfyUI/models/audio_encoderscd ComfyUI/models/audio_encoders#下载命令hf download Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/audio_encoders wav2vec2_large_english_fp16.safetensors --local-dir ./

7. 运行 main.py 文件

#根据需求,可选修改server.py文件配置监听地址和端口号,或保持默认#运行main.pycd /ComfyUIconda activate comfyenvpython main.py

三、网页演示

出现以下 ComfyUI 页面,代表模型已搭建完成。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Wan2.2-S2V-14B 音频驱动视频生成 多模态模型 数字人视频 阿里巴巴通义万相
相关文章