周大 发表于 2025-8-2 15:46:19

Deep Cogito开源6710亿参数MoE模型,性能超DeepSeek且训练成本不足350万美元

Deep Cogito,一家由前谷歌工程师创立的 AI 初创公司,开源了四款混合推理模型,包括最大规模的 6710 亿参数 MoE 模型,性能接近甚至超越 DeepSeek R1,并接近闭源模型 Claude 4 Opus。这些模型支持标准 LLM 模式与带自我反思的推理模式,采用名为 IDA 的新方法,通过迭代式策略改进内化推理过程,而非延长推理时间,推理链比 DeepSeek R1 缩短 60%。模型训练成本低于 350 万美元,远低于行业普遍预期。团队强调其模型在内部评估中持续优于多数开源模型,并展现出对图像的复杂逻辑推理能力,尽管训练数据为纯文本。公司长期目标是构建能自我提升的 AI 系统。
来源:https://mp.weixin.qq.com/s/jF-6VcBk5t2XoZAURutBUA
页: [1]
查看完整版本: Deep Cogito开源6710亿参数MoE模型,性能超DeepSeek且训练成本不足350万美元