Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

[复制链接]
周大 发表于 2025-9-11 14:25:58 | 显示全部楼层 |阅读模式
Thinking Machines Lab 在其首篇博客中指出,LLM 推理不确定性的根源在于缺乏“批次不变性”,而非传统认为的并发与浮点运算问题。团队提出通过固定归约策略和统一内存布局等方法实现确定性推理,并在 vLLM 上验证了其有效性。实验表明,启用该方法后,1000 次推理结果完全一致,性能损失可控,且有助于实现真正的在策略强化学习。
来源:https://mp.weixin.qq.com/s/Xv32OYDaH0aN2_LWLP9A-Q

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-9-27 16:36 , Processed in 0.310640 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表