Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

[复制链接]
周大 发表于 2025-7-17 14:10:24 | 显示全部楼层 |阅读模式
KAIST、Mila 和谷歌 DeepMind 提出新型 LLM 架构 Mixture-of-Recursions(MoR),在不牺牲性能的前提下,推理速度提升 2 倍,KV 缓存内存减少 50%。该架构通过动态路由机制为每个 token 分配计算资源,并采用共享模块与智能缓存策略,显著优化计算效率与内存使用。实验表明,在 135M 至 1.7B 参数范围内,MoR 在相同训练预算下表现优于传统 Transformer,具备良好扩展性与参数效率,未来有望重塑 LLM 架构方向。
来源:https://mp.weixin.qq.com/s/Uv-F9lIELcSr9PlTo9a6hQ

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-8-23 12:58 , Processed in 0.281115 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表