机器之心 11月06日 22:55
前馈三维重建技术综述:AI驱动的3D理解新范式
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文是一篇由12所顶尖机构联合撰写的综述论文,首次系统梳理了过去五年(2021-2025)在“前馈三维”(Feed-Forward 3D)技术领域涌现的数百项创新工作。该领域旨在解决传统三维重建方法效率低下、泛化能力差的问题,通过AI驱动的范式实现从二维图像快速、精准恢复三维世界。论文将现有技术划分为NeRF-based Models、PointMap Models、3D Gaussian Splatting、Mesh/Occupancy/SDF Models以及3D-Free Models五大代表性技术分支,并总结了它们在多任务应用上的进展,同时指出了当前面临的挑战与未来发展趋势。

💡 **前馈三维(Feed-Forward 3D)新范式崛起**:为了克服传统三维重建方法(如SfM、NeRF)依赖于场景反复优化、速度慢且泛化能力差的缺点,AI驱动的前馈三维技术应运而生。该范式旨在实现从二维图像直接、快速地恢复三维世界,是计算机视觉领域的重要进展。

📊 **五大技术分支推动领域发展**:综述将前馈三维方法归纳为五大类主流架构:NeRF-based Models(如PixelNeRF及其分支)、PointMap Models(如DUSt3R引领的直接预测点云)、3D Gaussian Splatting(如PixelSplat实现直接输出高斯参数)、Mesh/Occupancy/SDF Models(结合Transformer和Diffusion模型)以及3D-Free Models(如Zero-1-to-3等生成模型)。每一类都在效率、精度或应用范围上取得了关键突破。

🚀 **多样化任务与应用前景广阔**:前馈三维技术已在多视角合成、姿态无关重建、动态4D重建、SLAM与定位、3D感知图像视频生成、数字人建模以及机器人操作等多个方向展现出巨大潜力。这些技术的进步使得“一张图生成整个场景”成为可能,并为现实世界的3D理解和交互提供了新的解决方案。

🌐 **面临挑战与未来发展方向**:尽管取得了显著进展,前馈三维技术仍面临多模态数据不足、重建精度待提升、自由视角渲染难度高以及长上下文推理瓶颈等挑战。未来的研究将聚焦于Diffusion Transformers、长程注意力机制、可扩展的4D记忆机制、多模态大规模数据集构建,以及兼具生成和重建能力的前馈模型。


在 3D 视觉领域,如何从二维图像快速、精准地恢复三维世界,一直是计算机视觉与计算机图形学最核心的问题之一。从早期的 Structure-from-Motion (SfM) 到 Neural Radiance Fields (NeRF),再到 3D Gaussian Splatting (3DGS),技术的演进让我们离实时、通用的 3D 理解越来越近。


然而,以往的方法往往依赖于每个场景的反复优化(per-scene optimization),既慢又缺乏泛化能力。在 AI 驱动的新时代,一个全新的范式正在崛起 —— Feed-Forward 3D。


这篇由 NTU、Caltech、Westlake、UCSD、Oxford、Harvard、MIT 等 12 所机构联合撰写的综述论文,主要总结了过去五年(2021–2025)间涌现的数百项创新工作,首次建立了完整的 Feed-Forward 3D 方法谱系与时间线。



论文标题:Advances in Feed-Forward 3D Reconstruction and View Synthesis: A Survey

论文地址:https://arxiv.org/abs/2507.14501

论文主页:https://fnzhan.com/projects/Feed-Forward-3D/



五大代表性技术分支

综述将所有 Feed-Forward 3D 方法划分为五类主流架构,每一类都推动了该领域的关键进展:


NeRF-based Models


Neural Radiance Fields (NeRF) 提出了体积渲染的可微分框架,但其「每个场景都要优化」的缺点导致效率低下。自 PixelNeRF [CVPR ’21] 起,研究者们开始探索「条件式 NeRF」,让网络直接预测辐射场。这一方向发展出多个分支:


1D 特征方法(如 CodeNeRF、ShaRF)

2D 特征方法(如 GRF、IBRNet、GNT、MatchNeRF)

3D 特征方法(如 MVSNeRF、GeoNeRF、NeuRay)



PointMap Models


这一分支由 DUSt3R (CVPR ’24) 引领,直接在 Transformer 中预测像素对齐的 3D 点云(pointmap),无需相机姿态输入。后续工作 MASt3R、Fast3R、CUT3R、SLAM3R、VGGT 等相继提出更高效的多视整合、长序列记忆机制,以及大场景处理能力等。



3D Gaussian Splatting (3DGS)


3DGS 是近年来最具突破性的表示之一,将三维场景表示为高斯点云,兼顾了体积渲染的质量与光栅化的速度。然而原始 3DGS 仍需优化。Feed-Forward 研究者通过引入神经预测器,实现了「直接输出高斯参数」的能力,主要方法包括:


    Image-based Gaussian Map:如 PixelSplat、GS-LRM、LGM、FreeSplatter,实现从单张图像到高斯场的预测;

    Volume-based Gaussian Representation:如 LaRa、GaussianCube、QuickSplat、SCube,将场景嵌入可学习体素或三平面结构中。



Mesh / Occupancy / SDF Models


这一类方法延续了传统几何建模思路,并与 Transformer 与 Diffusion 模型结合:


    MeshFormer、InstantMesh、MeshGPT、MeshXL 引入可自回归或大模型结构;

    SDF 方法(如 SparseNeuS、C2F2NeuS、UFORecon)结合体积感知与 Transformer 特征聚合,实现了高精度表面建模。


3D-Free Models


这类方法不再依赖显式三维表示,而是直接学习从多视图到新视角的映射。


    Regression-based:如 SRT、OSRT、RePAST、LVSM,利用深度神经网络直接端到端拟合目标结果;

    Generative Diffusion-based:以 Zero-1-to-3、SyncDreamer、MVDream、CAT3D、CAT4D 为代表,将图像或视频扩散模型迁移到三维生成领域。 这些模型让「一张图生成整个场景」成为可能。



多样化任务与应用场景

论文系统总结了 Feed-Forward 模型在多个方向的应用:


    Pose-Free Reconstruction & View Synthesis(PF3Plat、NoPoSplat)

    Dynamic 4D Reconstruction & Video Diffusion(MonST3R、4D-LRM、Aether)

    SLAM 与视觉定位(SLAM3R、VGGT-SLAM、Reloc3R)

    3D-Aware 图像与视频生成(DiffSplat、Bolt3D)

    数字人建模(Avat3R、GaussianHeads、GIGA)

    机器人操作与世界模型(ManiGaussian、ManiGaussian++)


Benchmark 与评测指标

论文收录了超过 30 个常用 3D 数据集(见第 13 页表 1),涵盖对象级、室内、室外、静态与动态场景,标注模态包括 RGB、深度、LiDAR、语义与光流等。 


同时总结了 PSNR / SSIM / LPIPS(图像质量),Chamfer Distance(几何精度),AUC / RTE / RRA(相机姿态)等标准指标体系,为未来的模型比较提供统一基线。



评测结果:Feed-Forward 3D 的量化进展

根据 Table 2–5 的结果,本综述对多项任务进行了系统对比:


相机姿态估计(Camera Pose Estimation)



点图重建(Point Map Estimation)



视频深度估计(Video Depth Estimation)



单图新视角合成(Single-Image NVS)



未来挑战与趋势

论文在第 5 章提出四大开放问题:


    多模态数据不足:RGB-only 仍占主流,缺乏统一的深度/LiDAR/语义对齐数据;

    重建精度待提升:尚未全面超越 MVS 在细节层面的表现;

    自由视角渲染难度高:遮挡与光照建模仍受限;

    长上下文推理瓶颈:处理 100+ 帧序列需 40 GB 以上显存。


未来方向包括:Diffusion Transformers 与长程注意力结构;可扩展的 4D 记忆机制;多模态大规模数据集构建(RGB + Depth + LiDAR + 语义);同时具有生成和重建能力的 Feed-Forward 模型。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


文章原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

前馈三维 Feed-Forward 3D 3D重建 3D Reconstruction 计算机视觉 Computer Vision NeRF 3D Gaussian Splatting AI 人工智能
相关文章