cnBeta全文版 09月26日
谷歌DeepMind机器人AI模型升级,实现复杂任务处理与网络信息获取
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌DeepMind的最新AI模型升级,显著提升了机器人的能力,使其能执行更复杂的任务并能通过网络获取信息。此次升级的核心是Gemini Robotics 1.5和Gemini Robotics-ER 1.5模型,它们使机器人在行动前能进行“多步推理”和规划。机器人现已能处理如按颜色深浅分拣衣物、根据实时天气打包行李、以及通过网络搜索优化垃圾分类等任务。新模型还能促进不同硬件配置的机器人之间相互学习和技能迁移。Gemini Robotics-ER 1.5已通过API向开发者开放,预示着机器人自动化应用将迈入新阶段。

🤖 **多步推理与规划能力提升**:升级后的Gemini Robotics 1.5和Gemini Robotics-ER 1.5模型,使机器人能够在执行物理任务前进行多步推理,提前规划行动方案,从而能处理比以往更复杂的指令。

🌐 **网络信息获取与应用**:机器人现在能够利用Google搜索等网络工具获取信息,并将其转化为自然语言指令,用于解决实际物理问题,例如根据当地要求优化垃圾分类,或根据当前天气打包行李。

🤝 **跨机器人学习与技能迁移**:新的AI模型能够帮助不同构造和硬件配置的机器人互相“学习”,使得一个机器人习得的技能可以迁移到其他机器人身上,提高了通用性和效率。

💡 **任务复杂性突破**:相较于过去仅能执行单一任务(如折纸),此次升级使机器人能够胜任需要综合理解、推理和物理操作的复杂任务,标志着机器人从指令执行者向问题解决者的转变。

Google DeepMind最新升级的AI模型使机器人能够执行更为复杂的任务,甚至可以通过网络获取所需信息。DeepMind机器人部门负责人Carolina Parada在新闻发布会上表示,公司的新AI模型协同运作,使机器人在实际行动前能够“多步推理”,提前规划行动方案。

此次系统升级采用了全新发布的Gemini Robotics 1.5和Gemini Robotics-ER 1.5这两款模型,对今年三月发布的AI模型进行了重大改进。现在,机器人已不再局限于单一的任务,比如折纸或拉开拉链,而是能够处理更复杂的操作,例如按深浅分拣洗衣物、根据伦敦当前天气打包行李,甚至通过针对当地要求进行网络搜索来协助垃圾、堆肥和回收物分类。

Parada介绍:“以往的模型能够很好地执行一条指令,并且具有广泛适用性。这次升级后,我们实现了从接受单一指令到真正理解和解决实际物理任务的转变。”

具体而言,机器人首先利用升级后的Gemini Robotics-ER 1.5模型理解其所处环境,并像人类一样使用Google搜索工具查找信息。随后,Gemini Robotics-ER 1.5会将搜索结果转化为自然语言指令,再交给Gemini Robotics 1.5模型,让机器人结合视觉和语言理解能力完成每一步操作。

DeepMind软件工程师Kanishka Rao指出,这些AI模型能够帮助不同构造的机器人互相“学习”,哪怕硬件配置存在差异。实验发现,ALOHA2机器人(配备机械臂)完成的任务可以直接在Franka双臂机器人及Apptronik“阿波罗”类人机器人上复现,“这意味着我们能用一个模型控制各类机器人,包括类人型机器人,且某个机器人习得的技能可以迁移到另一台机器人身上。”

Gemini Robotics-ER 1.5现已通过Gemini API在Google AI Studio向开发者开放,但Gemini Robotics 1.5仅对部分合作伙伴开放体验。

这一突破让机器人具备了利用网络为现实问题寻求解决方案的能力,有望推动自动化应用领域再上新台阶。

查看评论

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

谷歌DeepMind AI机器人 Gemini Robotics 机器人学习 多步推理 Google DeepMind AI Robotics Gemini Robotics Robotics Learning Multi-step Reasoning
相关文章