DeepSeek前脚发新论文,奥特曼立马跟上:GPT-5就在几个月后啊

[复制链接]
周大 发表于 2025-4-5 14:56:27 | 显示全部楼层 |阅读模式
DeepSeek联合清华大学发布新论文,提出SPCT方法以优化通用奖励模型,解决现有模型灵活性不足的问题。测试表明,DeepSeek-GRM-27B性能显著优于基线,且通过推理扩展性能进一步提升。与此同时,OpenAI调整发布计划,可能先推出o3和o4-mini,GPT-5预计数月后面世,效果将超预期。
来源:https://tech.ifeng.com/c/8iG17aEnYiQ

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-9 22:17 , Processed in 0.289543 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表