BPO方法强化多模态大模型

[复制链接]
周大 发表于 2024-7-27 15:16:35 | 显示全部楼层 |阅读模式
香港科技大学皮仁杰等学者针对多模态大型语言模型(MLLMs)存在的幻觉问题,提出偏好对齐方法Bootstrapped Preference Optimization(BPO)。该方法通过自动化构建偏好数据集,包括负样本和正样本,以缓解模型训练过程中的数据不平衡问题,有效提升模型的视觉理解能力。实验证明,经BPO微调的多模态大模型在多个基准测试中表现突出。
来源:https://mp.weixin.qq.com/s/_R8t5RtIzmTvZhZc4cAwqw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-19 02:49 , Processed in 0.288083 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表