华为盘古实现准万亿参数大模型训练

[复制链接]
周大 发表于 昨天 14:28 | 显示全部楼层 |阅读模式
华为盘古团队利用昇腾国产算力平台,在6000多块NPU集群上成功训练7180亿参数MoE模型,攻克负载均衡与通信瓶颈等问题,提出全新EP组负载均衡算法,将模型算力利用率提升至30.0%。盘古Ultra MoE在通用理解、数学推理和代码生成等领域表现卓越,彰显中国科技自主创新实力。
来源:https://mp.weixin.qq.com/s/HGZqvEpuIEWNY7Dn-4qqpg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-9 04:17 , Processed in 0.271439 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表