oschina.net 前天 18:57
MotionTrans:机器人无需示范,仅凭观察即可学习新技能
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

清华大学等高校联合发布了MotionTrans人机协同训练框架,该框架允许机器人仅通过观察人类动作即可学习新技能,无需任何示范。传统机器人训练依赖耗时且昂贵的演示数据,而MotionTrans利用VR设备捕捉人类精细手部动作,并将其转化为机器人可理解的格式,实现对机器人关节角度的精确映射。研究团队构建了一个包含3,213个演示的数据集,涵盖多种任务,并对动作的速度和舒适区域进行了优化,以确保机器人的安全与稳定运行。这一技术突破为机器人学习开辟了新途径。

🤖 MotionTrans框架的核心创新在于实现了机器人无需示范即可学习新技能。通过观察人类的动作,机器人能够自主理解并执行新的任务,这大大降低了机器人训练的门槛,解决了传统方法中数据收集耗时且成本高昂的问题。

🥽 该框架利用虚拟现实(VR)设备捕捉人类的精细手部动作数据。研究人员使用便携式VR设备,任何人都可以便捷地参与数据录制。系统不仅记录佩戴者的手部关键点,还同步拍摄第一人称视角视频,以确保收集到的数据质量高且信息丰富。

🔗 MotionTrans的关键技术是将人类动作数据转化为机器人可理解的格式。通过优化技术,研究者们能够将人类的手部动作精确映射到机器人的关节角度,使得机器人能够在真实环境中准确地模仿人类的动作,并根据机器人的工作特点进行了速度和舒适区域的调整,以保证安全性和稳定性。

清华大学、北京大学、上海交通大学和武汉大学等高校联合发布了一种名为 MotionTrans 的人机协同训练框架。

这一框架的创新之处在于,让机器人能够在没有任何示范的情况下,仅通过观察人类的动作,学习和执行新的技能。这标志着机器人学习领域的一次重大突破。

传统的机器人训练需要大量的真实演示数据,收集这些数据的过程耗时且成本高昂。例如,教机器人如何拧瓶盖,需要反复操作并记录每一个细节。而现在,MotionTrans 通过虚拟现实(VR)设备,能够捕捉人类的精细手部动作数据,从而为机器人提供学习的基础。

在 MotionTrans 的实施过程中,研究人员使用便携式 VR 设备,任何人都可以随时参与数据录制。系统不仅记录佩戴者的手部关键点,还同步拍摄第一人称视角的视频,这样确保了数据的高质量和丰富性。收集完成后,团队建立了一个包含 3,213 个演示的数据集,涵盖了多种人类与机器人任务。

核心的技术在于将人类的动作数据转化为机器人可理解的格式。研究者们通过优化技术将人类的手部动作精确映射到机器人的关节角度,这样机器人便能够在真实环境中执行人类的动作。此外,为了适应机器人的工作特点,研究团队还进行了速度和舒适区域的调整,以确保机器人的安全与稳定。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MotionTrans 机器人学习 人机协同 虚拟现实 AI
相关文章