我爱计算机视觉 10月22日 16:52
ICCV 2025最佳学生论文:FlowEdit告别反演,实现更优图像编辑
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

ICCV 2025公布了最佳学生论文FlowEdit,该研究提出了一种创新的“告别反演”的图像编辑范式。FlowEdit通过直接在原图上修改,构建了从原始图像到目标图像的平滑路径,避免了传统“先反演再编辑”方法的信息损失和错误累积问题。它利用预训练流模型,通过随机采样与平均编辑速度场的方式,实现了更稳定、对原图结构破坏更小的编辑效果,并在物体替换、概念更换和属性修改等任务上达到SOTA水平,在量化指标上也显著优于现有方法,为AI图像编辑开辟了新思路。

💡 **告别反演,直接编辑新范式:** FlowEdit摒弃了传统AI图像编辑中“先反演(拆解)再生成(重建)”的迂回路径,而是直接在原始图像上进行修改,构建了一条从源图像到目标图像的直接、平滑的编辑路径。这种方法避免了反演过程中可能带来的信息损失和错误累积,使得编辑过程更稳定,对原图结构的破坏更小。

🚀 **预训练流模型与平均速度场:** FlowEdit的核心技术在于利用预训练的流模型,并通过一种创新的“随机采样与平均”策略来确定编辑方向。在编辑的每一步,模型会构造多个“假设的”带噪源图像和目标图像,计算出多个“编辑速度场”,然后取平均值,从而得到一个更鲁棒、更符合整体编辑目标的“编辑速度”。这种“集思广益”的方式,有效降低了传输成本,提高了编辑的准确性。

🖼️ **卓越的编辑效果与结构保持:** FlowEdit在物体替换(如将猫变成狗)、概念更换(如将皇冠变成礼帽)以及细微属性修改等多种复杂编辑任务上,均展现出了SOTA(State-of-the-Art)级别的性能。其最大的亮点在于,在精准执行编辑指令的同时,能够几乎完美地保留原始图像的背景、光照、姿态等结构信息,实现了视觉效果和结构完整性的高度统一。

📊 **量化指标上的显著优势:** 除了直观的出色效果,FlowEdit在量化评估上也表现优异。在“千猫变千狗”的合成数据集实验中,FlowEdit的传输成本(MSE和LPIPS指标)显著低于基于反演的方法,同时在生成图像的真实性(FID/KID)和文本-图像一致性(CLIP)方面也取得了更优的平衡,证明了其在结构保持和编辑质量上的巨大优势。

CV君 2025-10-22 10:58 江苏

不绕远路,直接编辑,效果更好!

刚刚ICCV 2025 大会公布了最佳论文和最佳学生论文,最佳论文由卡内基梅隆大学研究团队摘得,最佳学生论文由以色列理工学院获得,从11000多篇投稿论文中被选中,这些论文有哪些值得关注的点,我们一起来看看。(本文关注的是最佳学生论文,最佳论文解读请参见今天的另一篇文章)

简单来说,我们想让AI根据一句话(比如“把猫变成狗”)来修改图片,同时又尽可能保留原图的结构和风格,这其实并不容易。传统的“先反演再编辑”方法,就像是把一张画拆解成一堆杂乱的颜料点(噪声),然后再用这些颜料点根据新的指令去画一幅新画。这个过程很容易“手抖”,导致最终画面要么不像话,要么丢失了原作的精髓。

而这篇论文提出的 FlowEdit ,则完全跳过了“拆解成颜料点”这一步。它更像一位高明的画家,直接在原画上进行修改,构建了一条从“原始图像”到“目标图像”的直接、平滑的路径。这样做的好处是显而易见的:编辑过程更稳定,对原图结构的破坏更小,效果达到了新的SOTA水平。

论文标题:FlowEdit: Inversion-Free Text-Based Editing Using Pre-Trained Flow Models

作者:Vladimir Kulikov, Matan Kleiner, Inbar Huberman-Spiegelglas, Tomer Michaeli

机构:以色列理工学院 (Technion – Israel Institute of Technology)

会议:ICCV 2025 Oral

论文终稿地址: https://openaccess.thecvf.com/content/ICCV2025/papers/Kulikov_FlowEdit_Inversion-Free_Text-Based_Editing_Using_Pre-Trained_Flow_Models_ICCV_2025_paper.pdf

项目主页https://matankleiner.github.io/flowedit/

代码仓库https://github.com/fallenshock/FlowEdit

ps.下载该论文并所有ICCV 2025 论文,请在“我爱计算机视觉”公众号后台回复“顶会论文”(小写)。

为何需要“告别反演”?

在深入了解 FlowEdit 之前,我们先快速回顾一下当前主流的AI图像编辑范式。很多方法,比如大家熟知的 SDEdit、Prompt-to-Prompt 等,都依赖于一个叫做“反演”(Inversion)的过程。

这个过程有点像一个“先拆解再重建”的流程:

反演(拆解):首先,将原始图片(比如一张老虎的照片)通过一个前向的常微分方程(ODE)过程,一步步“拆解”成一个纯粹的噪声图。这个噪声图可以看作是生成这张图片的“种子”。

编辑与生成(重建):然后,用这个“种子”噪声图,结合新的文本指令(比如“把老虎换成猫”),通过一个反向的ODE过程,再一步步“重建”出一张新的图片。

上图生动地展示了“反演编辑”与FlowEdit的路径差异。左侧(a)就是传统的反演路径,需要先走到噪声空间(N(0,1)),再返回。而右侧(c)的FlowEdit则选择了一条更直接的路径。

这个“绕远路”去噪声空间溜达一圈的范式,虽然可行,但存在明显缺陷:

信息损失:在“拆解”和“重建”的过程中,很容易丢失原始图像的精细结构和布局信息。

错误累积:反演过程本身可能不完全精确,导致最终生成的图像与原图结构偏差较大,出现不自然的“P图”痕迹。

深入技术:从ODE反演到FlowEdit

为了真正理解FlowEdit的巧妙之处,我们需要深入其数学原理。

技术背景:基于ODE反演的编辑范式

当前许多方法都基于流模型(Flow Models),特别是矫正流(Rectified Flow)。这类模型学习一个含时的速度场(velocity field)V(Z_t, t, C),它可以将一个分布的样本(如高斯噪声)通过求解一个常微分方程(Ordinary Differential Equation, ODE)“输送”到另一个分布(如真实图像)。这里的 Z_t 是 t 时刻的图像状态,C 是文本条件。

基于此,“反演编辑” 的具体技术步骤如下(对应上图a):

前向过程(反演):给定源图像 X_src 和源提示 C_src。我们从 Z_0 = X_src 开始,求解前向ODE:dZ_t = V(Z_t, t, C_src) dt,直到 t=1 时刻,得到一个理论上与 X_src 对应的噪声向量 Z_1。这就是所谓的“反演到噪声”。

后向过程(生成):拿到这个噪声 Z_1 后,我们换上新的目标提示 C_tar。从 Z_1 开始,反向求解ODE:dZ_t = V(Z_t, t, C_tar) dt,从 t=1 回到 t=0,最终得到编辑后的图像 X_tar

这个过程虽然理论上可行,但其致命弱点在于,它将源图像和目标图像的关联完全寄托于那个唯一的、在反演时计算出的噪声向量 Z_1 上。任何计算上的不精确都会导致结构信息的丢失。

FlowEdit的核心思想:从“单一路径”到“多路径平均”

FlowEdit的作者首先提出了一个深刻的洞见:上述两步走的“反演编辑”过程,其实等价于一个从 X_src 到 X_tar 的直接ODE路径(对应上图b)。这条直接路径的速度场,恰好是目标速度场与源速度场的差值 V_tar - V_src

然而,这条由反演决定的“唯一”直接路径,依然不是最优的。因为它经过了噪声空间的“瓶颈”,会导致不合理的匹配(如下图所示,源分布中的蓝点可能被错误地匹配到目标分布中较远的红点,而不是更近的蓝点),从而增加了“传输成本”,损害了图像结构。

FlowEdit的解决方案(对应上图 Figure 2中的 c)正是为了打破这种僵硬的“唯一路径”。它的核心思想是:不再依赖于某一次具体的反演,而是通过对大量可能的“编辑方向”进行平均,来动态地、启发式地寻找一条更好的路径。

具体步骤如下: 在求解编辑路径的每一步 t,对于当前的中间结果 Z_FE_t

它并不进行完整的反演,而是构造一个“假设的”带噪源图像 Ž_src_t。这是通过给原始图像 X_src 混合一个随机高斯噪声N_t 得到的。

基于这个带噪源图像 Ž_src_t 和当前编辑状态 Z_FE_t,可以推算出一个“假设的”带噪目标图像 Ž_tar_t

然后,模型分别计算出指向这两个“假设”图像的速度场 V_src(Ž_src_t) 和 V_tar(Ž_tar_t)

计算出当前这个随机噪声下的“编辑速度”:V_delta = V_tar - V_src

最关键的一步:重复上述1-4步多次(每次都用新的随机噪声N_t),然后将得到的多个 V_delta取平均值

使用这个平均后的、更鲁棒的“编辑速度”,来更新当前图像 Z_FE_t,完成ODE的一步积分。

CV君认为,这个“随机采样与平均”的策略是FlowEdit的精髓所在。它不再把宝押在一次反演上,而是通过“集思广益”,综合了大量可能路径的“意见”,从而找到了一条整体上“传输成本”更低、更能保持原始结构的演化路径。这是一种非常聪明的启发式搜索,它让编辑过程变得更加灵活和稳定。

实验效果:眼见为实

理论说再多,不如直接看效果。FlowEdit 在各种复杂的编辑任务上,都展现出了SOTA级别的性能。

无论是物体替换(自行车变Vespa、兔子变小狗)、概念更换(皇冠变礼帽、椰子变棒球),还是更细微的属性修改,FlowEdit都能精准地执行指令,同时几乎完美地保留了背景、光照、姿态等原始图像信息。

比如这个将蛋糕上的“水果”换成“草莓”的例子,FlowEdit不仅准确地添加了草莓,还保持了蛋糕原有的奶油质感和盘子背景。

定量对比:用数据说话

除了肉眼可见的出色效果,FlowEdit在量化指标上也全面超越了基于反演的方法。

在一个“千猫变千狗”的合成数据集实验中,研究者对比了FlowEdit和反演编辑的“传输成本”(即编辑前后图像的差异)。结果显示,FlowEdit的传输成本(MSE 1376 vs 2239, LPIPS 0.15 vs 0.25)远低于反演方法,同时在生成图像的真实性指标(FID/KID)上也表现更优。这有力地证明了其在结构保持上的巨大优势。

上图展示了不同方法在“文本-图像一致性”(CLIP,越高越好)和“结构保持性”(LPIPS,越低越好)上的权衡。FlowEdit(Ours)在两个维度上都取得了最佳的平衡点。

在风格编辑方面,FlowEdit同样游刃有余,可以在动漫、绘画等风格间自由切换,同时保留主体内容。

总结

总的来说,FlowEdit的提出,为基于流模型的文本图像编辑领域带来了一股清新的空气。它不仅在效果和性能上达到了新的SOTA,更重要的是,它提供了一种更优雅、更符合直觉的“直接编辑”新范式。CV君认为,这种“告别反演”的思路,很可能会启发未来更多的研究,并有望被集成到主流的文生图模型(如Stable Diffusion、FLUX)中,让AI“P图”变得更加得心应手。

大家对这种“直接编辑”的思路怎么看?欢迎在评论区留下你的看法!

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ICCV 2025 FlowEdit 图像编辑 AI图像编辑 流模型 反演 计算机视觉 Image Editing AI Image Editing Flow Models Inversion Computer Vision
相关文章