周大 发表于 2024-7-27 15:16:35

BPO方法强化多模态大模型

香港科技大学皮仁杰等学者针对多模态大型语言模型(MLLMs)存在的幻觉问题,提出偏好对齐方法Bootstrapped Preference Optimization(BPO)。该方法通过自动化构建偏好数据集,包括负样本和正样本,以缓解模型训练过程中的数据不平衡问题,有效提升模型的视觉理解能力。实验证明,经BPO微调的多模态大模型在多个基准测试中表现突出。
来源:https://mp.weixin.qq.com/s/_R8t5RtIzmTvZhZc4cAwqw
页: [1]
查看完整版本: BPO方法强化多模态大模型