清华推出开源具身智能框架:用VLM解决机器人动作异构一致性难题,性能超越14倍参数对手
清华智能产业研究院与商汤研究院联合发布的UniAct框架,成功解决了具身智能中的动作空间异构一致性问题。通过构建首个tokenized通用动作空间,结合通用动作编码、异质解码器和轻量化架构三大创新,UniAct在权威评测中超越参数量达14倍的OpenVLA。其高效的数据利用能力和跨机器人迁移能力,使其在复杂场景下展现出卓越的泛化性能。目前,UniAct代码与论文已开源,为具身智能的Scaling Law探索提供了新思路。来源:https://mp.weixin.qq.com/s/G3Mc00e0Mh9X82X-uQiT-Q
页:
[1]