Hugging Face 10月30日 00:54
LeRobot v0.4.0:赋能开源机器人学习的重大升级
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

LeRobot v0.4.0 迎来重大升级,旨在提升开源机器人学习的强大性、可扩展性和易用性。本次更新包括重构的数据集基础设施(Datasets v3.0),支持超大规模数据集处理;新增灵活的数据集编辑工具,简化数据管理;扩展仿真环境,支持 LIBERO 和 Meta-World 等基准;推出模块化的数据处理 Pipeline(Processors),实现数据流的灵活控制;优化多 GPU 训练,加速模型迭代;并集成了 PI0.5 和 GR00T N1.5 等前沿视觉-语言-动作(VLA)模型。此外,全新的插件系统简化了第三方硬件集成,并上线了 Hugging Face 机器人学习课程和现代机器人学习教程,全面推动具身智能的发展。

🌐 **数据集基础设施革新 (Datasets v3.0)**:LeRobot v0.4.0 彻底重构了数据集基础设施,推出了 LeRobotDataset v3.0,采用分块式 Episode 格式与流式读取能力,极大地提升了处理超大规模数据集(如 OXE 和 Droid)的效率和可扩展性。新格式支持 PB 级数据,提供高效的视频存储、流式访问以及统一的 Parquet 元数据管理,显著缩短了数据集初始化时间并优化了内存使用。

🛠️ **灵活的数据集编辑工具**:新增的 `lerobot-edit-dataset` 命令行工具为用户提供了前所未有的数据集管理灵活性。用户可以方便地删除指定 Episodes、按比例或索引拆分数据集、添加或移除特征字段,以及合并多个数据集,从而极大地简化了数据策划和优化工作流。

🚀 **前沿模型与仿真环境扩展**:LeRobot v0.4.0 集成了 PI0.5 和 GR00T N1.5 等强大的视觉-语言-动作(VLA)模型,这些模型在开放世界泛化能力上取得了重要进展。同时,仿真环境得到了扩展,新增对 LIBERO(涵盖 130+ 任务)和 Meta-World(50+ 操作任务)的支持,为机器人策略的训练和评测提供了更丰富、更多样化的平台。

🔌 **模块化数据处理与硬件集成**:引入的名为 `Processors` 的模块化数据处理 Pipeline,充当通用的“数据翻译器”,能够灵活地管理数据流,实现传感器数据到模型输入、再到机器人控制命令的规范化和转换。全新的插件系统极大地简化了第三方硬件(如机器人、相机、遥操作设备)与 LeRobot 的集成,只需 `pip install` 即可连接,无需修改核心库,并已成功集成 Reachy 2 和手机遥操作。

🎓 **教育与教程资源升级**:LeRobot 团队上线了一门全面、可自学且完全开源的 Hugging Face 机器人学习课程,旨在普及机器人学习知识。此外,还发布了一篇动手实践的现代机器人学习教程,系统梳理了近期关键进展,并提供可运行的示例代码,全部基于 LeRobot 和 Hugging Face 生态系统,为用户提供了深入学习和实践的宝贵资源。

原创 LeRobot 2025-10-29 08:10 美国

让开源的机器人学习比以往更强大、更可扩展、也更易用!

我们非常高兴地宣布,LeRobot 迎来一系列重大升级,让开源的机器人学习比以往更强大、更可扩展、也更易用!从重构的数据集到灵活的编辑工具、新的仿真环境,以及面向硬件的全新插件系统,LeRobot 正在持续演进,以满足前沿具身智能 (Embodied AI) 不断发展的需求。

简要总结

LeRobot v0.4.0 为开源机器人领域带来重要升级:引入可扩展的 Datasets v3.0、强大的新 VLA (视觉-语言-动作) 模型如 PI0.5 与 GR00T N1.5,以及全新的插件系统,简化硬件集成。该版本还新增对 LIBERO 与 Meta-World 仿真的支持、简化多 GPU 训练,并上线全新的 Hugging Face 机器人学习课程。

数据集:为下一波大规模机器人学习做好准备

我们彻底重构了数据集基础设施,推出 LeRobotDataset v3.0,采用全新的分块式 Episode 格式与流式读取能力。这对于处理超大规模数据集 (如OXE(Open X Embodiment) 与Droid) 是一次范式跃迁,带来前所未有的效率与可扩展性。

OXEhttps://hf.co/collections/lerobot/open-x-embodiment

Droidhttps://hf.co/datasets/lerobot/droid_1.0.1

Datasets v3.0 有何新变化?

分块式 Episodes,面向超大规模:新格式支持 OXE 量级 (> 400 GB) 的数据集,显著提升可扩展性。

高效视频存储与流式读取:更快的加载速度与顺畅的视频数据流式访问。

统一的 Parquet 元数据:告别分散的 JSON!所有 Episode 的元数据现统一存放于结构化的 Parquet 文件中,便于管理与访问。

更快的加载与更好的性能:显著缩短数据集初始化时间,内存使用更高效。

我们还提供了转换脚本,帮助你将现有 v2.1 数据集一键迁移到新的 v3.0 格式,确保平滑过渡。更多细节可阅读我们此前的博客文章。开源机器人的学习能力持续升级中!

博客文章https://hf.co/blog/lerobot-datasets-v3

新特性:数据集编辑工具!

使用 LeRobot 数据集从未如此轻松!我们新增了一套强大的数据集灵活编辑工具。

借助全新的命令行工具 lerobot-edit-dataset,你可以:

从现有数据集中删除指定的 Episodes。

按比例或 Episode 索引拆分数据集。

轻松添加或移除特征字段。

将多个数据集合并为一个统一数据集。

# 将多个数据集合并为单一数据集lerobot-edit-dataset \    --repo_id lerobot/pusht_merged \    --operation.type merge \    --operation.repo_ids "['lerobot/pusht_train', 'lerobot/pusht_val']"# 删除部分 episodes 并保存为新数据集(保留原数据集)lerobot-edit-dataset \    --repo_id lerobot/pusht \    --new_repo_id lerobot/pusht_after_deletion \    --operation.type delete_episodes \    --operation.episode_indices "[0, 2, 5]"
这些工具将大幅简化你的工作流,让你以前所未有的方式策划与优化机器人数据集。更多详情请查阅文档

文档https://hf.co/docs/lerobot/using_dataset_tools

仿真环境:扩展你的训练场

我们持续扩展 LeRobot 的仿真能力,为你的机器人策略提供更丰富、更多样化的训练环境。

LIBERO 支持

LeRobot 现已正式支持LIBERO——这是 VLA (视觉-语言-动作) 策略中规模最大的开源基准之一,涵盖超过 130 个任务!这一步为打造 VLA 策略的首选评测枢纽奠定了基础,提供便捷的集成方式与统一的评测配置。

LIBEROhttps://libero-project.github.io/intro.html

前往查看LIBERO 数据集与我们的文档开始上手!

LIBERO 数据集https://hf.co/datasets/HuggingFaceVLA/libero

文档https://hf.co/docs/lerobot/en/libero

Meta-World 集成

我们已集成Meta-World,它是评测机器人操作多任务与泛化能力的一流基准,包含 50+ 种多样化的操作任务。配合我们对 gymnasium ≥ 1.0.0 与 mujoco ≥ 3.0.0 的标准化使用,这一集成为确定性的随机种子与稳健的仿真基础提供了保障。

Meta-Worldhttps://meta-world.github.io

立即使用Meta-World 数据集训练你的策略吧!

Meta-World 数据集https://hf.co/datasets/lerobot/metaworld_mt50

代码库:人人可用的强力工具

我们让机器人控制更加灵活与易用,解锁数据采集与模型训练的新可能。

全新的数据处理 Pipeline

让数据从机器人流向模型 (再流回去!) 并不容易。原始传感器数据、关节位置与语言指令,与人工智能模型期望的输入并不一致。模型需要在正确设备上的规范化、按批次的张量,而你的机器人硬件则需要特定格式的动作命令。

我们很高兴地推出 Processors:一个模块化的数据处理 Pipeline,可充当通用的“数据翻译器”。你可以把它想象为一条装配线,每个 ProcessorStep 只处理一个明确的工序——例如归一化、文本 Token 化、或将数据移到 GPU。

你可以将这些步骤串联起来,构建强大的 Pipeline,精准管理你的数据流。我们还提供了两类开箱即用的 Pipeline,进一步降低使用门槛:

PolicyProcessorPipeline:面向模型。专为高性能训练与推理处理按批次的张量。

RobotProcessorPipeline:面向硬件。以单条数据 (如单次观测或动作) 为粒度,服务于实时机器人控制。

# 获取环境状态obs = robot.get_observation()# 重命名、打批、归一化、文本分词、移动到设备 ...obs_processed = preprocess(obs)# 推理action = model.select_action(obs_processed)# 反归一化、移动设备 ...action_processed = postprocess(action)# 执行动作robot.send_action(action_processed)
这个系统让任何策略与任何机器人都能简单互联,确保你的数据在每一步都处于“刚刚好”的格式。详情可阅读我们的Processors 入门文档

Processors 入门文档https://hf.co/docs/lerobot/introduction_processors

多 GPU 训练更简单

大规模机器人策略的训练现在更快了!我们将Accelerate直接整合进训练 Pipeline,只需 一条命令 即可在多块 GPU 上无缝扩展你的实验:

Acceleratehttps://github.com/huggingface/accelerate

accelerate launch \  --multi_gpu \  --num_processes=$NUM_GPUs \  $(which lerobot-train) \  --dataset.repo_id=${HF_USER}/my_dataset \  --policy.repo_id=${HF_USER}/my_trained_policy \  --policy.type=$POLICY_TYPE \  # ... 更多训练配置参数
无论是对策略进行微调,还是开展大规模实验,LeRobot 现在都能替你处理分布式训练的全部复杂性。这意味着你可以大幅缩短训练时间:约 2 块 GPU 可减半,约 3 块 GPU 可降至三分之一,更多 GPU 效率更高。

查阅文档加速你的机器人学习!

文档https://hf.co/docs/lerobot/multi_gpu_training

策略:释放开放世界泛化能力

PI0 与 PI0.5

在开源机器人领域的一个重要里程碑中,我们将 Physical Intelligence 的 pi0 与 pi0.5 策略集成进了 LeRobot!这些 VLA (视觉-语言-动作) 模型在解决开放世界泛化问题上迈出了重要一步。那么,π0.5 的革命性体现在哪里?

开放世界泛化:能够适应完全陌生的环境与情境,在物理、语义与环境层面实现跨域泛化。

异构数据共训练:从多模态网页数据、自然语言指令、子任务命令与多环境机器人数据的多样组合中学习。

Physical Intelligence 合作:特别感谢Physical Intelligence 团队的开创性工作!

Physical Intelligence 团队https://hf.co/physical-intelligence

你可以在 Hugging Face Hub 上找到这些模型:pi0.5_basepi0_base及它们的 Libero 微调版本。更多细节请参考Physical Intelligence 的研究博客

pi0.5_basehttps://hf.co/lerobot/pi05_base

pi0_basehttps://hf.co/lerobot/pi0_base

Physical Intelligence 的研究博客https://www.physicalintelligence.company/blog/pi05

GR00T N1.5

另一项令人振奋的进展是,我们与 NVIDIA 机器人团队携手,将 GR00T N1.5 集成进 LeRobot!这是一款面向泛化的开源基础模型,能够进行跨本体的推理与技能迁移。它接收多模态输入 (如语言与图像) ,可在多样环境中执行复杂的操作任务,标志着通用机器人又一大步。GR00T N1.5 为何与众不同?

泛化推理与技能:作为跨本体的基础模型,GR00T N1.5 擅长泛化推理与操作任务,并提升了语言跟随能力。

大规模异构训练:训练数据覆盖真实人形机器人采集数据、NVIDIA Isaac GR00T Blueprint 生成的合成数据,以及互联网规模的视频数据。

与 NVIDIA 合作:我们很高兴与NVIDIA 团队合作,将这一前沿模型带给开源的 LeRobot 社区!

NVIDIA 团队https://hf.co/nvidia

你可以在 Hugging Face Hub 上找到该模型:GR00T-N1.5-3B。更多信息请查看NVIDIA 的研究页面官方 GitHub 仓库

GR00T-N1.5-3Bhttps://hf.co/nvidia/GR00T-N1.5-3B

NVIDIA 的研究页面https://research.nvidia.com/labs/gear/gr00t-n1_5/

官方 GitHub 仓库https://github.com/NVIDIA/Isaac-GR00T

这些策略在 lerobot 中的原生集成,让机器人学习更开放、更可复现。立即试用、分享你的训练运行结果,让我们共同推动具身智能的前沿!

机器人:插件系统引领硬件集成新纪元

对硬件爱好者而言的重磅消息!我们发布了全新的插件系统,彻底改造了第三方硬件与 LeRobot 的集成方式。现在,只需一次 pip install,就能连接任意机器人、相机或遥操作设备,无需修改核心库。

核心优势

可扩展性:在独立的 Python 包中开发并集成自定义硬件。

规模化:支持不断增长的设备生态,而不会“增肥”核心库。

社区友好:降低社区贡献门槛,促进更高效的协作。

想要创建自己的插件?请阅读我们的文档

文档https://hf.co/docs/lerobot/integrate_hardware#using-your-own-lerobot-devices-

pip install lerobot_teleoperator_my_awesome_teleoplerobot-teleoperate --teleop.type=my_awesome_teleop

Reachy 2 集成

得益于全新插件系统,我们已将 Pollen Robotics 的Reachy 2集成到 LeRobot 中!Reachy 2 同时支持真实机器人控制与仿真,让你可以立即开展遥操作与自主演示实验。

Reachy 2https://www.pollen-robotics.com/reachy/

手机集成

得益于强大的新 Pipeline 系统,你现在可以直接用手机 (iOS/Android) 遥操作你的从动机械臂。手机作为遥操作设备,RobotProcessor Pipeline 负责全部数据变换,让你轻松在不同动作空间 (如末端执行器空间) 驱动机器人。查看示例

查看示例https://github.com/huggingface/lerobot/tree/main/examples/phone_to_so100

Hugging Face 机器人学习课程

我们上线了一门全面、可自学、且完全开源的课程,旨在让机器人学习真正“人人可学”!如果你对真实世界中的机器人如何学习感兴趣,这是绝佳的起点。

在这门课程中,你将学到:

理解经典机器人学的基础知识。

使用生成式模型进行模仿学习 (VAE、扩散模型等) 。

将强化学习应用于真实机器人。

探索最新的通用机器人策略,如 PI0 与 SmolVLA。

加入Hugging Face Robotics 组织一起学习吧!

Hugging Face Robotics 组织https://hf.co/robotics-course

深入讲解:现代机器人学习教程

我们还发布了一篇动手实践的现代机器人学习教程,系统梳理近期的关键进展。该指南从第一性原理重新推导现代技术,并提供可直接运行的示例代码,全面基于 LeRobot 与 Hugging Face。

教程托管在一个Space中,包含大量基于 LeRobot 的实操示例,所有模型与数据集均在 Hugging Face Hub 上。同时你也可以查看我们的论文以获得更全面的概览。

Spacehttps://hf.co/spaces/lerobot/robot-learning-tutorial

我们的论文https://hf.co/papers/2510.12403

团队总结

除了以上重大功能,这个版本还包含大量的错误修复、文档改进、依赖更新、更多示例与更好的基础设施,只为让你在使用 LeRobot 时获得更顺滑、更可靠的体验。

衷心感谢每一位社区成员的宝贵贡献、反馈与支持。我们对开源机器人的未来无比期待,也迫不及待地想与你一起构建下一步!

更多精彩,敬请期待 🤗 现在就从这里开始吧! —— LeRobot 团队 ❤️

这里https://github.com/huggingface/lerobot

英文原文: https://huggingface.co/blog/lerobot-release-v040

原文作者: Steven Palma, Michel Aractingi, Pepijn Kooijmans, Caroline Pascal, Jade Choghari, Francesco Capuano, Adil Zouitine, Martino Russi, Thomas Wolf

译者: Luke,  Hugging Face Fellow

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LeRobot 机器人学习 具身智能 开源 AI Robot Learning Embodied AI Open Source
相关文章