庞若鸣还有苹果论文?改善预训练高质量数据枯竭困境

[复制链接]
周大 发表于 4 天前 | 显示全部楼层 |阅读模式
苹果前基础模型负责人庞若鸣参与的研究提出“合成自举预训练”(SBP),应对大模型面临的数据枯竭挑战。该方法通过挖掘文档间的跨文本关联,利用合成数据增强训练,实验显示在200B至1T token规模下,性能提升相当于拥有20倍更多真实数据的模型的47%。SBP不依赖外部模型,具备高数据效率和理论可解释性,为语言模型可持续发展提供了新路径。
来源:https://mp.weixin.qq.com/s/0RK2b-2y5_8_etb38LKYJA

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-9-27 11:39 , Processed in 0.306686 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表