周大 发表于 2025-4-23 14:29:23

业内首次! 全面复现DeepSeek-R1-Zero数学代码能力,训练步数仅需其1/10

快手 Kwaipilot 团队提出 SRPO 框架,通过两阶段训练范式和历史重采样策略,解决了强化学习训练中的性能瓶颈和样本效率问题。该方法在数学与代码领域复现并超越了 DeepSeek-R1-Zero 的表现,仅用十分之一的训练步数便取得优异成绩(AIME24=50、LiveCodeBench=41.6)。团队还通过数据清洗和分阶段训练,有效提升了模型推理能力及跨领域泛化效果,为构建更强大的推理模型提供了重要参考。
来源:https://mp.weixin.qq.com/s/q7TkEe76WH6mBDDfiRdFUg
页: [1]
查看完整版本: 业内首次! 全面复现DeepSeek-R1-Zero数学代码能力,训练步数仅需其1/10