全新模型RoboVLMs解锁VLA无限可能,真实机器人实验交出满分答卷
来自清华大学等机构的研究团队提出视觉语言动作模型(VLAs)的新成果——RoboVLMs。该模型不仅在三个模拟任务中取得高分,在真实机器人实验中也表现出色。研究围绕四个关键问题深入探讨VLA设计,发现连续动作空间、历史信息利用等对模型性能提升重要,且KosMos和Paligemma基座模型表现最佳。预训练阶段引入跨本体数据可显著提升模型鲁棒性。未来,VLA有望在更复杂任务中有新突破。来源:https://mp.weixin.qq.com/s/z0v0mrl_WB0Ie-5yVHc3-g
页:
[1]