Scaling Laws终结,量化无用,AI大佬都在审视这篇论文

[复制链接]
周大 发表于 2024-11-14 14:17:20 | 显示全部楼层 |阅读模式
一项新研究《Scaling Laws for Precision》指出,训练 token 越多,所需的精度越高。专家认为,AI 大模型的扩展可能达到极限,未来发展方向包括扩大数据中心规模、动态扩展和知识提炼。英伟达的新计算卡 Blackwell 支持 8 位训练,但 8 位精度对大模型可能不足。研究发现,低精度训练和推理影响模型质量和成本,提出了“精度感知”扩展定律。低精度训练降低了模型的有效参数数量,导致性能下降。此外,低精度预训练对训练后量化的“增强”作用有限。
来源:https://mp.weixin.qq.com/s/JhtOlj5Y4UYM3W3koeMmqw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-27 10:08 , Processed in 0.285775 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表