英伟达研究:大模型上下文长度虚标,32K以上性能普遍下降

[复制链接]
周大 发表于 2024-6-3 14:40:39 | 显示全部楼层 |阅读模式
英伟达的一项新研究揭示,尽管一些大语言模型声称能处理长达1M的上下文,但实际在“有效上下文长度”上表现不佳。新提出的RULER基准测试显示,多数模型在超过32K的上下文长度时性能大幅下滑。在所有受测模型中,GPT-4在扩展上下文时性能下降最少,而开源模型Command-R、Yi-34B和Mixtral展现出较好的长上下文处理能力。
来源:https://mp.weixin.qq.com/s/pNUT8_T5YMJXrzLbzUi9ww

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-17 11:20 , Processed in 0.283770 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表