智元机器人宣布其通用具身基座大模型GO-1(Genie Operator-1)已在GitHub开源,这是全球首个采用Vision-Language-Latent-Action(ViLLA)架构的模型。该架构通过隐式动作标记,有效连接了图像-文本输入与机器人动作执行,提升了机器人理解和执行复杂任务的能力。GO-1免费向全球开发者开放,旨在降低具身智能技术门槛。模型设计包含多模态理解、隐式规划和动作生成三层协同,支持多视角视觉、力觉信号及语言指令融合。同时发布的Genie Studio平台覆盖数据采集到真机部署的全流程。GO-1已在多种机器人本体上验证,展现良好可移植性和仿真性能。
🤖 **首个ViLLA架构通用具身基座大模型开源**:智元机器人发布的GO-1(Genie Operator-1)是全球首个采用Vision-Language-Latent-Action(ViLLA)架构的通用具身智能模型。该架构通过引入隐式动作标记,有效地弥合了图像-文本输入与机器人动作执行之间的语义鸿沟,从而显著提升了机器人理解和执行复杂任务的能力。
💡 **降低技术门槛,赋能全球开发者**:GO-1模型已正式在GitHub开源,并免费向全球开发者开放。此举旨在降低通用具身智能技术的应用门槛,鼓励更广泛的开发者社区参与到具身智能技术的研发和创新中,加速该领域的进步。
⚙️ **多层协同设计与全流程开发平台**:GO-1模型基于多模态理解、隐式规划和动作生成三层协同设计,能够融合多视角视觉、力觉信号以及语言指令进行处理。智元机器人还推出了Genie Studio一站式开发平台,覆盖了从数据采集、模型训练到真机部署的全流程,为开发者提供端到端的支持。
🚀 **广泛验证与全球招募计划**:GO-1模型已在多种机器人本体上完成了验证,展现出优秀的跨平台可移植性以及在仿真环境中的出色性能。此外,智元机器人还发起了Genie Trailblazer全球招募计划,邀请全球研究团队聚焦通用具身智能模型、具身世界模型以及高级遥操作等核心方向进行探索。
快科技9月23日消息,据媒体报道,智元机器人今日宣布,通用具身基座大模型GO-1(Genie Operator-1)已在GitHub正式开源,成为全球首个采用Vision-Language-Latent-Action(ViLLA)架构的通用具身智能模型。
这一突破性架构通过引入隐式动作标记,有效弥合了图像-文本输入与机器人动作执行之间的语义鸿沟,显著提升了机器人对复杂任务的理解与执行能力。 向全球开发者免费开放,降低具身智能技术门槛。

该模型基于多模态理解、隐式规划和动作生成三层协同设计,支持多视角视觉、力觉信号与语言指令的融合处理。
同时,智元推出Genie Studio一站式开发平台,覆盖数据采集、模型训练到真机部署全流程,助力开发者快速实现具身智能应用落地。GO-1已在多类机器人本体上完成验证,展现出优秀的可移植性与仿真性能。
值得一提的是,智元机器人在不久前正式发起Genie Trailblazer全球招募计划,向全球的具身智能研究团队发出邀请,聚焦通用具身智能模型、具身世界模型、高级遥操作三大核心探索方向。
