LLM训练通信量减少10000倍!全新分布式优化器,整合世间算力训练强大AI

[复制链接]
周大 发表于 2024-9-10 16:52:28 | 显示全部楼层 |阅读模式
近日,Nous Research发布了一款名为DisTrO的分布式优化器,成功将训练大语言模型时GPU间的通信量降低了1000至10000倍。这一技术突破不仅解决了带宽瓶颈问题,还在不牺牲性能的前提下实现了低延迟训练。DisTrO具备广泛适用性和高弹性,未来有望应用于联邦学习和虚拟异构GPU集群,从而减少能源消耗和环境影响。
来源:https://mp.weixin.qq.com/s/epbyp2YIbpaWinbq5TobZg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-18 14:28 , Processed in 0.282373 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表