周大 发表于 2024-5-11 16:10:21

大模型微调:新知识引发“幻觉”风险与应对策略

一项最新研究揭示了大语言模型在微调过程中学习新知识的双刃剑效应。尽管微调有助于模型适应特定任务,但可能引入不准确响应,即“幻觉”。研究团队提出的SliCK框架量化了模型对知识的掌握程度,发现未知事实的学习可能导致过拟合,性能下降。不过,早期停止策略可有效缓解这个问题。研究强调了微调数据多样性和可能已知样本的重要性,以优化模型性能并减少过拟合风险。
来源:https://mp.weixin.qq.com/s/s0SnbVrJrtrYhI9pk5rGHg
页: [1]
查看完整版本: 大模型微调:新知识引发“幻觉”风险与应对策略