首个奖励模型评分基准!清华复旦港科大联合攻克AI评委“偏科”
清华大学、复旦大学和香港科技大学的研究团队发布了RM-BENCH基准测试,旨在评估奖励模型区分细微内容差异和抵抗风格偏差的能力。该基准覆盖聊天、代码、数学和安全四大领域,通过风格控制变体进行系统性测试。研究团队对近40个奖励模型进行全面评估,结果显示当前模型在数学和代码领域表现不佳,存在严重的风格偏差问题。同时,DPO模型在奖励建模方面展现出更大潜力,且RM-BENCH与策略模型性能高度相关,为语言模型对齐提供了可靠参考。来源:https://mp.weixin.qq.com/s/QIRLYW0UW4L766feh8zMHg
页:
[1]