低精度只适用于未充分训练的LLM?腾讯提出LLM量化的scaling laws

[复制链接]
周大 发表于 2024-12-29 15:16:32 | 显示全部楼层 |阅读模式
腾讯AI Lab研究发现,低比特量化仅在未充分训练(通常在1000亿tokens以内)的大语言模型(LLM)上表现出与高精度相当的性能。研究人员量化了超过1500个不同规模和训练程度的开源LLM,推导出低比特量化的scaling laws。研究表明,随着训练深入,低比特量化与高精度间的性能差距显著扩大。QiD(量化引起的退化)成为衡量LLM是否充分训练的新指标。该研究警示学术界重新审视在未充分训练LLM上得出的结论,引发对低比特量化应用前景的担忧。
来源:https://mp.weixin.qq.com/s/mbeWPNw5DktvepXrkVgaBw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-22 09:00 , Processed in 0.291298 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表