数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆
面对AI高质量数据即将耗尽的挑战,CMU与DeepMind联合研究提出In-Context Abstraction Learning(ICAL)方法。该方法通过上下文抽象学习,利用低质量数据和人类反馈,使视觉-语言模型(VLM)能根据次优演示创建有效提示词,从而改善决策并减少对专家示例的依赖。实验结果显示,ICAL在家庭环境指令遵循、多模态自动化网络任务及视频动作预测等场景中均取得显著性能提升,分别提高了42%至86%的成功率,并且随着示例数量增加表现出良好的扩展性。来源:https://mp.weixin.qq.com/s/bSE8DGf0fkNKhPhe8H4HoA
页:
[1]