周大 发表于 2024-5-8 15:36:12

山东大学提出一致性对齐法,提升大模型鲁棒性

一项新研究针对大语言模型的敏感性和不一致性问题,定义了新的鲁棒性度量并提出了一种两阶段训练策略。该策略包括指令增强和一致性对齐,能有效提升模型的稳定性和一致性。实验表明,这一方法在Vicuna-13B上取得了显著效果,其性能在某些指标上超过了先进的GPT-4。
来源:https://mp.weixin.qq.com/s/0d64jCiuzLUMnSqgSW652w
页: [1]
查看完整版本: 山东大学提出一致性对齐法,提升大模型鲁棒性