PaperWeekly 10月27日 23:12
AI优化视频生成,解决多人物“认错人”难题
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近期,阿里云研究团队提出了一种名为 Identity-GRPO 的新方法,旨在解决视频生成中多人物身份保持的难题。现有模型常因追求画面一致性而导致人物“串脸”,Identity-GRPO 通过强化学习框架重塑模型对齐方式,能够记住并保持每一张脸的身份一致性。该方法构建了大规模偏好数据集,设计了专用的奖励模型,并针对多模态输入和提示词的敏感性进行了优化,显著提升了视频生成在身份一致性方面的表现。

🎯 **多人物身份保持难题的突破**:视频生成技术在处理多人场景时,普遍存在“认错人”的现象,即模型为了画面连贯性而混淆人物身份。Identity-GRPO 方法通过引入专为多人物视频生成设计的后训练优化算法,有效解决了这一核心痛点,确保了视频中每个角色的身份在整个序列中保持一致。

🤖 **基于强化学习的身份对齐**:Identity-GRPO 核心技术亮点在于其基于强化学习框架重塑了模型的对齐方式。通过构建大规模高质量的人类偏好数据集,并设计了能够捕捉细粒度身份一致性质量差异的专用奖励模型,该方法能够更精准地引导模型生成符合人类期望的、身份准确的视频内容。

🚀 **多项优化提升训练稳定性与效果**:针对多模态输入带来的方差问题,Identity-GRPO 引入了多种策略以增强 GRPO 训练的稳定性,包括初始噪声差异化以扩大生成视频的多样性,以及采用更大批次的视频采样来应对方差。同时,通过细化提示词,确保模型能更准确地理解和描述参考图像中的人物特征,从而提升了整体生成效果。

📊 **实验验证的显著性能提升**:在 VACE 和 Phantom 等先进模型上进行的广泛实验表明,Identity-GRPO 能够带来显著的性能提升。在身份一致性指标上,相比基准方法最高可提升 18.9%,并且提出的身份一致性奖励模型准确率远超传统方法,证明了该方法在解决多人物身份保持视频生成问题上的有效性和优越性。

让你更懂AI的 2025-10-27 18:34 北京

让模型不再“认错人”

在视频生成的世界里,“认不清人”成了一个尴尬的通病。无论是两个人同框跳舞,还是多人合作演绎剧情,模型常常为了追求画面一致性而牺牲人物身份,一不留神就“串脸”“换人”。

来自阿里云的研究团队决定正面破解这一难题——他们设计出一套专为多人物视频生成打造的后训练优化算法,让模型在生成时不仅“会拍”,更能记住每一张脸。

这项名为 Identity-GRPO 的新方法,基于强化学习框架重塑了模型的对齐方式,并已完整开源代码与权重,为视频生成社区提供了新的解决思路。

论文标题:

Identity-GRPO:Optimizing Multi-Human Identity-preserving Video Generation via Reinforcement Learning

论文链接:

https://arxiv.org/abs/2510.14256

项目主页:

https://ali-videoai.github.io/identity_page

代码链接:

https://github.com/alibaba/identity-grpo

引言

随着 Diffusion Transformer 架构的发展,高质量视觉内容生成已经取得了显著进展,特别是身份保持视频生成技术——即创造具有一致人类身份的高保真度视频——已成为一个重要研究方向。

然而,当涉及到多人物身份保持视频生成(MH-IPV)任务时,即使是目前最先进的模型如 VACE 和 Phantom 也面临着严峻挑战。这些模型必须在满足复杂文本指令的同时,在整个视频序列中维护各个角色的身份一致性。

研究者们观察到,现有模型常常会为了整体构图相似性而牺牲个体身份的准确性。比如,在处理类似"两个穿着不同服装的人同步跳舞"这样的提示词时,模型可能会交换角色间的面部特征,导致运动模式连贯但身份严重错位的现象等。

Identity-GRPO

为了解决这一问题,阿里的研究团队提出了一种全新的人类反馈驱动的优化策略——Identity-GRPO,这是首个专门针对多人物身份保持的视频生成场景设计的人类偏好驱动的对齐策略。

核心技术亮点

1. 大规模偏好数据集构建

研究团队构建了一个包含约 15,000 个标注样本的大规模高质量数据集。该数据集采用了半自动化框架结合人工标注的混合流水线,通过对五个先进视频生成模型的生成视频对进行精细地筛选和标注,从而获得最终的成对的偏好数据。

这种方法的优势在于超越了人工标注的限制,同时通过质量控制的过滤方式保持了与人类偏好的严格对齐。

2. 专用奖励模型设计

传统的奖励信号如 ArcFace 在多人物场景中存在局限性,容易受到非身份相关因素的影响,产生所谓的“复制粘贴”效应(Copy-Paste Issue)。为此,研究人员基于 Qwen2.5VL 模型,训练了一个能够捕捉成对视频样本间细粒度身份一致性质量差异的专用奖励模型。

该模型采用了两阶段训练方法:先在高质量的人工标注数据集上训练初步奖励模型,然后用其对自动标注数据进行一致性过滤,最终在人工标注数据和过滤后的自动标注数据上联合训练获得最优效果。

3. Identity-GRPO 在 MH-IPV 任务上的针对性改进

Group Relative Policy Optimization(GRPO)虽然在复杂推理任务中表现出色,但在应用于 MH-IPV 任务时面临独特挑战。

不同于 T2V 任务,MH-IPV 任务的输入包含多个模态,这引入了显著的方差,使得采样的视频难以支持稳定的 GRPO 训练。为此,Identity-GRPO 引入了多项增强 GRPO 训练稳定性的策略:

初始噪声差异化:可以扩大生成视频之间的多样性。在 MH-IPV 中,由于参考图像的约束,仅依靠 SDE 引入的随机性,很难在同一组视频中创建显著的身份差异。这严重限制了强化学习训练所需的探索空间。

因此,在采样过程中,研究团队采用不同的初始化噪声来增强生成视频之间的多样性。

更大批次的视频采样:可以应对多种模态输入的方差问题。在 Identity-GRPO 中,由于不同模态之间的方差,仅使用少量视频进行单次参数更新可能导致训练不稳定甚至崩溃。

所以研究团队在 Identity-GRPO 的单次参数更新中采样更多数量的视频样本以增强训练稳定性——这类似于在标准训练中使用更大的批次大小。

提示词细化:可以确保提示词准确描述参考图像中的人物特征。在本工作中,研究团队发现不同的基础模型,如 VACE 和 Phantom,对提示词和参考图像的差异表现出不同的敏感程度。

因此研究团队采用了 Qwen2.5-VL 来细化提示词,生成包含参考图像中人物角色的准确描述的提示词以提升训练效果。

实验验证:显著的性能提升

经过广泛的消融研究和系统性评估,Identity-GRPO 展现出了令人瞩目的表现:

Identity-Consistency Reward 曲线

图中的(a)和(b)分别显示了 Identity-GRPO 在 VACE-1.3B 和 Phantom-1.3B 上的身份一致性奖励值的曲线。两者都表现出明显的上升趋势。说明了 Identity-GRPO 基于多个模型均可以取得一致的性能提升。

定量实验结果

1. 在身份一致性指标上,Identity-GRPO 相比基准方法 VACE 提升了最高 18.9%;

2. Identity-GRPO 相比 Phantom 模型提升了 6.5% 的性能;

3. 除此之外,在论文中展示的偏好准确性基准测试中,提出的身份一致性奖励模型达到了0.890 的准确率,明显优于传统方法 ArcFace,它的准确率仅有 0.772。

可视化结果对比

前两组视频展示了 Phantom-1.3B 与 Phantom-1.3B+Identity-GRPO 的对比,最后两组视频则是 VACE-1.3B 与 VACE-1.3B+Identity-GRPO 的对比。

在每一组中,第一段视频展示了基线模型的结果,第二段视频则展示了由 Identity-GRPO 优化后的生成结果。在这些情况下,基线模型生成视频中的人物明显与参考图像不匹配,而 Identity-GRPO 则始终保持着较高的身份一致性。

消融实验

由于 MH-IPV 任务中的多模态输入条件,在每次参数更新中使用更大批次的视频以及多样化的初始噪声对于实现稳定的 Identity-GRPO 训练至关重要。

如表格所示,当视频数量不足时,GRPO 训练会变得不稳定,在采样一组视频时使用相同的初始化噪声会限制 GRPO 的探索空间,从而都会阻碍身份一致性奖励分数的提升。

技术创新价值

这项研究的贡献主要体现在三个方面:

1. 数据集资源:提供了首个面向多人物身份保持视频生成的高质量人类偏好标注数据集

2. 方法论创新:设计了多人物身份一致性奖励模型,并系统研究了针对 MH-IPV 任务的 GRPO 训练配置

3. 实践指导意义:为复杂多人物生成任务中强化学习与一致性视频生成的整合提供了新的见解

小结

Identity-GRPO 工作是多人物身份保持视频生成领域的一个积极探索。通过在现有技术基础上的优化,为解决这类问题提供了一条可行的思路。这项研究为后续相关工作积累了有价值的经验。期待看到更多研究者在这个有趣的方向上进行深入的探索和改进。

参考文献

· Identity-GRPO: Optimizing Multi-Human Identity-preserving Video Generation via Reinforcement Learning

· VACE: All-in-One Video Creation and Editing

· Phantom: Subject-Consistent Video Generation via Cross-Modal Alignment

研究团队的工作:

· Tora: Trajectory-oriented Diffusion Transformer for Video Generation

· Tora2: Motion and Appearance Customized Diffusion Transformer for Multi-Entity Video Generation

· AnimateAnything: Fine Grained Open Domain Image Animation with Motion Guidance

更多阅读

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 视频生成 身份保持 多人物 强化学习 Identity-GRPO 阿里云 Video Generation Identity Preservation Multi-Person Reinforcement Learning Alibaba Cloud
相关文章