清华大学:一个简单缩放让大模型利用长上下文能力提升15.2%

[复制链接]
周大 发表于 2024-6-18 14:52:53 | 显示全部楼层 |阅读模式
清华大学的研究揭示了大型语言模型在处理长上下文时存在的位置偏差问题,主要由Transformer的注意力机制和因果掩码引起。为解决此问题,研究团队提出一种新方法,通过扩展位置隐藏状态来调整模型的注意力分配,从而显著提升了模型在处理长文本任务时的性能,特别是在多文档问答和长序列理解方面。
来源:https://mp.weixin.qq.com/s/86vqhDddAXhAvFYpcFacbg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-7-6 16:08 , Processed in 0.294344 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表