index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
哈尔滨工业大学与理想汽车等团队联合提出了一种新的纯视觉在线前馈框架,用于解决自动驾驶中高精度、实时的4D动态场景重建难题。该方案通过创新的“静到动”两阶段训练范式和混合共享架构的残差流网络,实现了对静态场景的鲁棒建模和动态物体的精确运动估计。相较于现有技术,该方法在仅使用两帧连续环视图像作为输入的情况下,能够实时输出高质量的3D高斯点云、深度图和场景流等多项任务结果,无需离线优化或依赖昂贵的LiDAR等多模态传感器,显著提升了重建质量和效率,为自动驾驶的在线感知提供了更优解决方案。
🏗️ 提出了“静到动”两阶段训练范式,首先学习鲁棒的静态场景先验,然后冻结静态网络训练动态模块,有效解决了端到端训练的不稳定问题,并降低了动态建模的复杂性。
🧠 设计了混合共享架构的残差流网络,包含一个共享深度编码器和轻量化的单相机解码器,仅预测动态物体的非刚性运动残差,实现了跨视角尺度一致性和计算效率的平衡。
👁️ 构建了纯视觉在线前馈框架,仅需输入两帧连续环视图像,即可实时输出3D高斯点云、深度图和场景流等多任务结果,无需离线优化或多模态传感器,更符合自动驾驶的在线感知需求。
🚀 实验结果表明,该方法在nuScenes数据集上,于novel view synthesis、深度预测等方面均超越主流前馈类基线,同时在推理速度、模型大小和训练成本方面也展现出显著优势。
🚗 通过定性分析,该方法在动态物体重建方面能够生成边缘清晰、时序一致的结果,有效避免了现有方法中常见的重影和模糊问题,验证了其在复杂动态驾驶场景中的有效性。
2025-11-02 16:59 四川

原文来自自动驾驶之心的整理一、研究背景与挑战
自动驾驶系统的安全性和可靠性高度依赖4D动态场景重建(即3D空间+时间维度的实时、高保真环境感知)。当前行业面临两大核心矛盾:传感器成本与效率的平衡:传统多模态方案依赖LiDAR、RaDAR等设备,虽精度高但成本昂贵;纯视觉方案(仅用摄像头)虽具备成本优势,却需解决“稀疏视角+动态物体”带来的重建难题——如何从360度环视相机的连续帧中,实时输出几何准确、视觉真实的大尺度动态场景。现有渲染技术的局限:神经渲染方法(如NeRF、3D高斯溅射3DGS)在静态场景重建(如StreetGaussian、DrivingGaussian)中表现出色,但受限于“逐场景离线优化”范式,无法满足自动驾驶的实时性需求;而面向动态场景的方案(如EmerNeRF)同样存在离线问题,端到端动态建模方法(如Driv3R)虽尝试在线重建,却因未解耦“静态场景基础”与“动态物体运动”,不仅计算负担重,还会导致重建细节丢失、稳定性差(如动态物体重影、模糊)。此外,静态前馈方案(如DrivingForward、pixelSplat)虽实现了在线推理,但因假设“场景无动态”,面对行驶车辆、行人等移动目标时会产生严重伪影,难以适配真实驾驶场景。二、核心创新点
哈尔滨工业大学联合理想汽车等研究团队通过三大关键设计突破现有瓶颈,实现“实时性+高保真+多任务输出”的统一:静到动两阶段训练范式:先从大规模数据中学习鲁棒的静态场景先验(如建筑、道路等刚性结构),冻结静态网络后再训练动态模块,彻底解决端到端训练的不稳定性,同时降低动态建模的复杂度。混合共享架构的残差流网络:设计“共享深度编码器+单相机解码器”结构——共享编码器学习通用运动先验,轻量化单相机解码器适配不同相机的内外参,仅预测“动态物体的非刚性运动残差”(而非完整运动场),兼顾跨视角尺度一致性与计算效率。纯视觉在线前馈框架:仅输入两帧连续环视图像,即可实时输出3D高斯点云、深度图、场景流等多任务结果,无需离线优化或多模态传感器,适配自动驾驶的在线感知需求。三、相关工作梳理
静态驾驶场景重建代表方案:DrivingForward、pixelSplat、MVSplat、DepthSplat核心特点:基于3DGS或多视图立体匹配(MVS),采用前馈推理实现静态场景的快速重建,可处理稀疏环视视角。不足:均假设场景无动态,面对移动车辆、行人时会出现重影、几何偏移等伪影,无法适配真实驾驶场景的动态性。动态驾驶场景重建代表方案:Driv3R、EmerNeRF核心特点:Driv3R采用端到端架构建模4D动态,但未解耦静动态成分,模型参数大(2.512GB)、训练耗时(约7.5天)、推理慢(0.71s/帧);EmerNeRF通过自监督实现时空分解,但依赖逐场景离线优化,无法满足实时性。3D高斯溅射(3DGS)衍生方法代表方案:StreetGaussian、DrivingGaussian核心特点:将3DGS应用于城市/驾驶场景,提升静态场景的渲染质量与效率。不足:均为离线优化范式,需针对每个场景单独训练,无法支持自动驾驶的在线感知任务。四、主要技术方案
整体框架如figure 2所示:输入两帧连续环视图像,先通过静态模块生成3D高斯表示的静态场景,再通过残差流网络预测动态运动,最终融合生成4D动态场景。
静态场景几何与外观建模以3D高斯溅射(3DGS)为场景表示核心,每个高斯基元定义为 ,其中::3D空间均值(位置);:协方差矩阵(形状);:不透明度;:球谐函数(SH)系数(外观)。设计两个前馈网络实现高斯参数的直接预测:深度网络(D):输入环视图像与相机姿态,输出逐像素深度图,进而计算所有高斯基元的 (位置信息);高斯参数网络(P):输入图像特征与深度特征,推理 等剩余参数。所有相机视角的高斯基元通过已知外参转换到世界坐标系,拼接为统一静态场景表示。该过程无需3D空间去重或融合,而是依赖可微渲染器在视图合成时自动抑制遮挡、不一致的高斯基元(使其对最终像素颜色贡献最小)。基于残差场景流的动态建模为捕捉动态物体运动,提出残差流网络(R),将总运动场分解为“刚性运动()+非刚性残差运动()”::由预测深度与相机姿态计算,对应“自车运动引发的全局场景运动”(如车辆前进导致的背景平移);:由残差流网络预测,仅建模“动态物体的非刚性运动”(如其他车辆变道、行人行走)。残差流网络架构如figure 3所示,采用“粗到细”优化策略:
共享深度编码器:提取多尺度通用运动特征;单相机金字塔解码器:从低分辨率到高分辨率迭代优化流场,每个分辨率的预测作为下一级的初始估计,有效处理大位移运动;输入适配层:针对不同相机的内外参调整输入特征,确保跨视角的尺度一致性。两阶段训练策略与损失函数阶段1:静态网络训练(冻结前)仅训练深度网络(D)与高斯参数网络(P),损失函数为::多视图一致性损失,通过 photometric 重投影误差确保不同视角的几何一致性;:视差图平滑损失,惩罚深度图中的大梯度,避免几何碎片化;:渲染损失,最小化渲染图与真值图的差异,公式为:其中 为像素级损失, 为感知损失(权重0.05),确保视觉保真度。阶段2:残差流网络训练(静态网络冻结)仅训练残差流网络(R),损失函数为::流场一致性损失,通过“前向-后向流场校验”确保运动估计的几何合理性;:流场扭曲损失,对“由总运动场扭曲的源图像”与目标图像施加一致性约束,公式为:其中 为扭曲图像,、,结合L1(像素级)、SSIM(结构相似性)、LPIPS(感知)损失,强化运动与渲染的耦合一致性;:与阶段1一致,确保动态场景的渲染质量。五、实验验证与结果分析
实验设置数据集:nuScenes(700个训练场景、150个验证场景),图像分辨率352×640;硬件:PyTorch框架,NVIDIA RTX5090 GPU(32GB);训练参数:Adam优化器(学习率1e-4),阶段1(6轮)、阶段2(6轮);评价指标:novel view synthesis(PSNR、SSIM、LPIPS)、深度预测(Abs Rel、Sq Rel、RMSE)、效率(推理时间、VRAM占用、模型参数)。定量结果(对比主流方案)Novel View Synthesis
在nuScenes验证集上,该方法全面超越前馈类基线:PSNR达28.76,较Driv3R(26.10)提升2.66dB,较DrivingForward(26.06)提升2.7dB;SSIM达0.895,显著高于Driv3R(0.808)与DrivingForward(0.781);LPIPS达0.113(越低越好),虽略高于Driv3R(0.084),但综合PSNR、SSIM仍体现更优的渲染保真度。深度预测
几何准确性优于Driv3R:Abs Rel(绝对相对误差)0.227 vs 0.234;Sq Rel(平方相对误差)2.195 vs 2.279;RMSE(均方根误差)7.254 vs 7.298,验证静态先验与动态残差结合的几何建模有效性。5.2.3 效率与模型复杂度
推理速度:0.21s/帧(6路环视图像),比DrivingForward(0.34s)快38%,比Driv3R(0.71s)快70%;训练成本:训练时间约5天,VRAM占用27.3GB,远低于Driv3R(7.5天、175.5GB);模型大小:参数0.117GB,仅为Driv3R(2.512GB)的4.6%、DrivingForward(0.173GB)的67.6%,体现轻量化优势。定性结果
动态物体重建(figure 4):DrivingForward因静态假设,对移动车辆、行人产生明显重影;Driv3R虽能捕捉动态,但细节模糊;该方法可生成边缘清晰、时序一致的动态物体重建结果。运动场分解(figure 5):刚性流()准确捕捉自车运动引发的全局背景平移,全流()可清晰定位动态物体(如侧方行驶车辆),验证残差流网络的动态建模能力。消融实验验证核心设计的必要性:残差流网络:去除后模型退化为“静态版”,PSNR、SSIM显著下降,证明动态建模对真实场景重建的关键作用;两阶段训练:替换为端到端训练后,模型无法学习尺度一致的几何,渲染质量大幅退化,凸显静态先验的基础价值;流场扭曲损失():去除后渲染图与动态运动的一致性下降,验证该损失对多任务协同的约束作用。参考
[1]DrivingScene: A Multi-Task Online Feed-Forward 3D Gaussian Splatting Method for Dynamic Driving Scenes加微信,进群深度交流理想实际经营情况与长期基本面。不是技术群,不是车友群。
阅读原文
跳转微信打开