周大 发表于 2025-4-5 14:56:27

DeepSeek前脚发新论文,奥特曼立马跟上:GPT-5就在几个月后啊

DeepSeek联合清华大学发布新论文,提出SPCT方法以优化通用奖励模型,解决现有模型灵活性不足的问题。测试表明,DeepSeek-GRM-27B性能显著优于基线,且通过推理扩展性能进一步提升。与此同时,OpenAI调整发布计划,可能先推出o3和o4-mini,GPT-5预计数月后面世,效果将超预期。
来源:https://tech.ifeng.com/c/8iG17aEnYiQ
页: [1]
查看完整版本: DeepSeek前脚发新论文,奥特曼立马跟上:GPT-5就在几个月后啊