index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
具身智能被视为通往通用人工智能的关键路径,但传统方法在开放、动态环境中仍面临泛化瓶颈。近两年来,大模型(LLM、LVM、LVLM、MLM、VLA等)的爆发为具身系统带来了新的感知、推理与学习能力。本文综述了大模型如何赋能具身智能的两大核心——自主决策与具身学习,并首次将“World Model”纳入统一框架,为研究者提供了全景式路线图。
🤖 大模型为具身智能带来了新的感知、推理与学习能力,被视为通往通用人工智能的关键路径。传统方法在开放、动态环境中仍面临泛化瓶颈,而大模型的爆发为具身系统提供了新的解决方案。
🎬 自主决策方面,大模型主要赋能两大范式:分层决策和端到端决策。分层决策中,大模型负责高层规划,将指令转化为可执行代码或规划任务,底层执行则结合传统 PID/MPC 与 LLM 调用视觉 API 实现模块化控制,并通过自我反思、人类反馈和环境反馈形成闭环。端到端决策则通过 Vision-Language-Action (VLA) 模型直接将多模态输入映射到动作,并通过感知增强、轨迹优化和成本降低等方向进行改进。
🧠 具身学习方面,大模型在模仿学习和强化学习方面都取得了显著进展。模仿学习方面,扩散策略和 Transformer 策略分别通过 U-Net 建模多模态动作分布和端到端输出动作序列来驱动学习。强化学习方面,大模型通过自动生成奖励函数和强化策略网络来解决奖励函数设计难和策略网络表达弱的问题。
🌍 World Model 作为决策与学习的新引擎,提供了四大设计路线:Latent Space、Transformer、Diffusion 和 JEPA。它在决策中可以模拟验证动作,降低真实交互成本;在学习中则可以提供虚拟交互环境和合成数据,提升样本效率。
2025-09-01 11:45 湖北

具身智能(Embodied AI)被视为通往通用人工智能(AGI)的关键路径,但传统方法在开放、动态环境中仍面临泛化瓶颈。
近两年来,大模型(LLM、LVM、LVLM、MLM、VLA等)的爆发为具身系统带来了新的感知、推理与学习能力。
主要LLM时间线电子科大最新综述系统(论文链接在文末)梳理了
大模型如何赋能具身智能的两大核心——自主决策与具身学习,并首次将“World Model”纳入统一框架,为研究者提供了全景式路线图。
2. 大模型 × 具身智能:整体框架
Fig-1 论文整体架构图1:综述章节组织,涵盖分层/端到端决策、具身学习、World Model
表1:对比现有综述,本文首次同时覆盖五大维度3. 自主决策两大范式
3.1 分层决策(Hierarchical Decision-Making)
Fig-5 分层决策流程感知 → 高层规划 → 底层执行 → 反馈增强3.1.1 高层规划:让大模型“写剧本”
结构化语言:LLM 生成 PDDL 规划,LLM+P、PDDL-WM 用外部验证器纠错。自然语言:SayCan、Text2Motion 用 RL 值函数或几何检查器过滤不可行动作。编程语言:Code-as-Policy、Instruct2Act 将指令直接转为可执行 Python 代码。3.1.2 底层执行:从 PID 到扩散策略
传统 PID/MPC 与 LLM 调用 CLIP、SAM 等视觉 API 结合,实现模块化控制。最新工作(π₀、Octo)用扩散模型输出连续轨迹,兼顾平滑与精准。3.1.3 反馈闭环:三种来源
Self-Reflection:Re-Prompting、Reflexion 让 LLM 自评自改。人类反馈:YAY Robot、IRAP 在线接受语言纠正。环境反馈:Inner Monologue、DoReMi 把多模态观测转成自然语言再规划。3.2 端到端决策:Vision-Language-Action (VLA) 模型
Fig-9 VLA 端到端框架图9:VLA 直接映射多模态输入到动作3.2.1 VLA 的三板斧
组件 | 作用 | 代表模型 |
|---|
Tokenizer | 视觉/语言/状态/动作统一编码 | RT-2、OpenVLA | 融合模块 | Cross-Attention 融合跨模态信息 | Octo、Diffusion-VLA | De-Tokenizer | 离散或连续动作解码 | π₀、TinyVLA | 3.2.2 三大增强方向
感知增强:BYO-VLA 运行时去噪、3D-VLA 引入点云。轨迹优化:Diffusion-VLA 用扩散头生成平滑轨迹;π₀ 采用流匹配提速。成本降低:TinyVLA 知识蒸馏 + 量化,边缘端 30 ms 推理。3.2.3 主流 VLA 对比表2:主流 VLA 一览(节选)4. 具身学习:从模仿到强化,大模型全面提效
Fig-12 具身学习方法论图12:模仿学习、RL、迁移学习、元学习协同示意图4.1 模仿学习:扩散 & Transformer 双轮驱动
扩散策略:Diffusion Policy、3D-Diffusion 用 U-Net 建模多模态动作分布,抗噪声、长程一致。Transformer 策略:RT-1、ALOHA、Mobile ALOHA 用 Decision Transformer 结构,端到端输出动作序列。4.2 强化学习:大模型解决两大痛点
痛点 | 大模型解法 | 代表工作 |
|---|
奖励函数设计难 | GPT-4 自动生成密集奖励 | Eureka、Text2Reward | 策略网络表达弱 | 扩散/Transformer/LLM 作为策略 | Diffusion-QL、GLAM、LaMo | 
5. World Model:决策与学习的新引擎
图16:World Model 在决策与学习中的双重角色5.1 四大设计路线Latent Space:RSSM → Dreamer 系列,低维潜空间预测。Transformer:Genie、IRIS 用自注意力建模长程依赖。Diffusion:UniPi、Sora 直接在像素空间生成未来帧。JEPA:LeCun 提出非生成式联合嵌入预测架构,强调常识推理。5.2 两大应用场景决策:在“脑内”模拟验证动作,降低真实交互成本(UniSim、NeBula)。学习:提供虚拟交互环境 + 合成数据,提升样本效率(SynthER、SWIM)。
https://arxiv.org/pdf/2508.10399
Large Model Empowered Embodied AI: A Survey on Decision-Making and Embodied Learning
欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。
阅读原文
跳转微信打开