LeRobot v0.4.0正式发布,开源机器人学习能力提升,这是否意味着它将更智能?
摘要:我们非常高兴地宣布,LeRobot 迎来一系列重大升级,让开源的机器人学习比以往更强大、更可扩展、也更易用!从重构的数据集到灵活的编辑工具、新的仿真环境,以及面向硬件的全新插件系统,LeRobot 正在持续演进,以满足前沿具身智能 (Emb
我们非常高兴地宣布,LeRobot 迎来一系列重大升级,让开源的机器人学习比以往更强大、更可扩展、也更易用!从重构的数据集到灵活的编辑工具、新的仿真环境,以及面向硬件的全新插件系统,LeRobot 正在持续演进,以满足前沿具身智能 (Embodied AI) 不断发展的需求。
简要总结
LeRobot v0.4.0 为开源机器人领域带来重要升级:引入可扩展的 Datasets v3.0、强大的新 VLA (视觉-语言-动作) 模型如 PI0.5 与 GR00T N1.5,以及全新的插件系统,简化硬件集成。该版本还新增对 LIBERO 与 Meta-World 仿真的支持、简化多 GPU 训练,并上线全新的 Hugging Face 机器人学习课程。
数据集:为下一波大规模机器人学习做好准备
我们彻底重构了数据集基础设施,推出 LeRobotDataset v3.0,采用全新的分块式 Episode 格式与流式读取能力。这对于处理超大规模数据集 (如 OXE (Open X Embodiment) 与 Droid) 是一次范式跃迁,带来前所未有的效率与可扩展性。
Datasets v3.0 有何新变化?
分块式 Episodes,面向超大规模:新格式支持 OXE 量级 (> 400 GB) 的数据集,显著提升可扩展性。
高效视频存储与流式读取:更快的加载速度与顺畅的视频数据流式访问。
统一的 Parquet 元数据:告别分散的 JSON!所有 Episode 的元数据现统一存放于结构化的 Parquet 文件中,便于管理与访问。
更快的加载与更好的性能:显著缩短数据集初始化时间,内存使用更高效。
我们还提供了转换脚本,帮助你将现有 v2.1 数据集一键迁移到新的 v3.0 格式,确保平滑过渡。更多细节可阅读我们此前的 博客文章。开源机器人的学习能力持续升级中!
新特性:数据集编辑工具!
使用 LeRobot 数据集从未如此轻松!我们新增了一套强大的数据集灵活编辑工具。
借助全新的命令行工具 lerobot-edit-dataset,你可以:
从现有数据集中删除指定的 Episodes。
按比例或 Episode 索引拆分数据集。
轻松添加或移除特征字段。
将多个数据集合并为一个统一数据集。
# 将多个数据集合并为单一数据集
lerobot-edit-dataset \
--repo_id lerobot/pusht_merged \
--operation.type merge \
--operation.repo_ids "['lerobot/pusht_train', 'lerobot/pusht_val']"
# 删除部分 episodes 并保存为新数据集(保留原数据集)
lerobot-edit-dataset \
--repo_id lerobot/pusht \
--new_repo_id lerobot/pusht_after_deletion \
--operation.type delete_episodes \
--operation.episode_indices "[0, 2, 5]"
这些工具将大幅简化你的工作流,让你以前所未有的方式策划与优化机器人数据集。更多详情请查阅 文档!
仿真环境:扩展你的训练场
我们持续扩展 LeRobot 的仿真能力,为你的机器人策略提供更丰富、更多样化的训练环境。
LIBERO 支持
LeRobot 现已正式支持 LIBERO——这是 VLA (视觉-语言-动作) 策略中规模最大的开源基准之一,涵盖超过 130 个任务!这一步为打造 VLA 策略的首选评测枢纽奠定了基础,提供便捷的集成方式与统一的评测配置。
前往查看 LIBERO 数据集 与我们的 文档 开始上手!
Meta-World 集成
我们已集成 Meta-World,它是评测机器人操作多任务与泛化能力的一流基准,包含 50+ 种多样化的操作任务。配合我们对 gymnasium ≥ 1.0.0 与 mujoco ≥ 3.0.0 的标准化使用,这一集成为确定性的随机种子与稳健的仿真基础提供了保障。
立即使用 Meta-World 数据集 训练你的策略吧!
代码库:人人可用的强力工具
我们让机器人控制更加灵活与易用,解锁数据采集与模型训练的新可能。
全新的数据处理 Pipeline
让数据从机器人流向模型 (再流回去!) 并不容易。原始传感器数据、关节位置与语言指令,与人工智能模型期望的输入并不一致。模型需要在正确设备上的规范化、按批次的张量,而你的机器人硬件则需要特定格式的动作命令。
