数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

[复制链接]
周大 发表于 2025-1-3 15:06:16 | 显示全部楼层 |阅读模式
面对AI高质量数据即将耗尽的挑战,CMU与DeepMind联合研究提出In-Context Abstraction Learning(ICAL)方法。该方法通过上下文抽象学习,利用低质量数据和人类反馈,使视觉-语言模型(VLM)能根据次优演示创建有效提示词,从而改善决策并减少对专家示例的依赖。实验结果显示,ICAL在家庭环境指令遵循、多模态自动化网络任务及视频动作预测等场景中均取得显著性能提升,分别提高了42%至86%的成功率,并且随着示例数量增加表现出良好的扩展性。
来源:https://mp.weixin.qq.com/s/bSE8DGf0fkNKhPhe8H4HoA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-22 07:04 , Processed in 0.278894 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表