华为盘古实现准万亿参数大模型训练

[复制链接]
周大 发表于 2025-5-8 14:28:02 | 显示全部楼层 |阅读模式
华为盘古团队利用昇腾国产算力平台,在6000多块NPU集群上成功训练7180亿参数MoE模型,攻克负载均衡与通信瓶颈等问题,提出全新EP组负载均衡算法,将模型算力利用率提升至30.0%。盘古Ultra MoE在通用理解、数学推理和代码生成等领域表现卓越,彰显中国科技自主创新实力。
来源:https://mp.weixin.qq.com/s/HGZqvEpuIEWNY7Dn-4qqpg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-8 01:22 , Processed in 0.301513 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表