字节跳动豆包团队开源MoE架构优化技术:可将大模型训练效率提升1.7倍

[复制链接]
周大 发表于 2025-3-11 15:12:19 | 显示全部楼层 |阅读模式
字节跳动豆包大模型团队在混合专家架构取得重要突破,训练效率提升1.7倍,成本降低40%,并在内部万卡集群成功应用,节省数百万GPU小时算力。该团队决定将此成果开源,以推动AI行业整体发展,助力更多研究者和开发者提升模型训练效率,促进人工智能技术创新与应用。
来源:https://www.chinaz.com/2025/0311/1673728.shtml

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-7 16:58 , Processed in 0.268569 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表