Deep Cogito开源6710亿参数MoE模型,性能超DeepSeek且训练成本不足350万美元

[复制链接]
周大 发表于 2025-8-2 15:46:19 | 显示全部楼层 |阅读模式
Deep Cogito,一家由前谷歌工程师创立的 AI 初创公司,开源了四款混合推理模型,包括最大规模的 6710 亿参数 MoE 模型,性能接近甚至超越 DeepSeek R1,并接近闭源模型 Claude 4 Opus。这些模型支持标准 LLM 模式与带自我反思的推理模式,采用名为 IDA 的新方法,通过迭代式策略改进内化推理过程,而非延长推理时间,推理链比 DeepSeek R1 缩短 60%。模型训练成本低于 350 万美元,远低于行业普遍预期。团队强调其模型在内部评估中持续优于多数开源模型,并展现出对图像的复杂逻辑推理能力,尽管训练数据为纯文本。公司长期目标是构建能自我提升的 AI 系统。
来源:https://mp.weixin.qq.com/s/jF-6VcBk5t2XoZAURutBUA

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-8-22 21:33 , Processed in 0.290556 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表