新加坡国立大学团队提出Manual2Skill框架,机器人首次实现从说明书自主学习家具装配技能
新加坡国立大学与多伦多大学合作开发了 Manual2Skill,一种基于视觉语言模型的框架,使机器人能通过解析人类设计的说明书完成复杂家具装配任务。该框架包含层级化装配图生成、分步骤位姿估计和动作生成与执行三个阶段,有效弥合了抽象指令与物理执行间的鸿沟。实验显示,其在仿真与真实环境中的成功率高达 58%,远超现有方法,并具备零样本扩展能力,彰显了 VLMs 在机器人领域的潜力。来源:https://mp.weixin.qq.com/s/xK3mM0r8bH6XrREKGc0esA
页:
[1]