北京大学:利用好不确定性,8B小模型也能超越GPT-4

[复制链接]
周大 发表于 2024-8-1 16:20:46 | 显示全部楼层 |阅读模式
北大论文揭示,在多数任务中,贪婪解码优于采样方法。通过采用“Best-of-N”策略,从多个采样响应中挑选最优答案,小规模模型Llama-3-8B-Instruct在MMLU、GSM8K和HumanEval上超越GPT-4-Turbo。研究还发现不同模型在不同任务中的表现差异显著,且缩放、对齐和解码参数对非确定性有重要影响。
来源:https://mp.weixin.qq.com/s/PJhlg_iz_zdZhsZ7unwdhg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-18 21:55 , Processed in 0.279830 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表