IN2训练法:改善大语言模型的“中间迷失”问题

[复制链接]
周大 发表于 2024-5-22 15:22:20 | 显示全部楼层 |阅读模式
西交大、微软和北大研究人员合作开发了一种名为IN2的信息密集型训练策略,以解决大语言模型在处理长文本时的“中间迷失”问题。这一问题导致模型只记住输入的开头和结尾。通过使用合成问答数据,IN2训练方法教导模型重视上下文中的所有信息。实验表明,经过IN2训练的Mistral-7B(FILM-7B)在长上下文任务中表现出色,超越了更大规模的模型。
来源:https://mp.weixin.qq.com/s/O0GXiaa3aypMWLJcvyboYA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-8 05:19 , Processed in 0.300320 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表