清华推出开源具身智能框架:用VLM解决机器人动作异构一致性难题,性能超越14倍参数对手

[复制链接]
周大 发表于 2025-3-19 15:53:11 | 显示全部楼层 |阅读模式
清华智能产业研究院与商汤研究院联合发布的UniAct框架,成功解决了具身智能中的动作空间异构一致性问题。通过构建首个tokenized通用动作空间,结合通用动作编码、异质解码器和轻量化架构三大创新,UniAct在权威评测中超越参数量达14倍的OpenVLA。其高效的数据利用能力和跨机器人迁移能力,使其在复杂场景下展现出卓越的泛化性能。目前,UniAct代码与论文已开源,为具身智能的Scaling Law探索提供了新思路。
来源:https://mp.weixin.qq.com/s/G3Mc00e0Mh9X82X-uQiT-Q

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-5 21:41 , Processed in 0.281754 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表