「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

[复制链接]
周大 发表于 2025-7-17 14:06:35 | 显示全部楼层 |阅读模式
谷歌提出新型语言模型架构 Mixture-of-Recursions(MoR),通过动态 token 级路由机制实现参数共享与自适应计算的统一框架。MoR 可在显著减少参数量(最多减少 50%)的情况下,仍优于传统 Transformer 模型,在相同计算预算下获得更低验证损失和更高准确率。其递归级 KV 缓存策略有效降低内存压力,推理吞吐量最高提升 2.06 倍。尽管被部分学者视为“Transformer 杀手”,但其最终地位仍有待进一步验证。
来源:https://mp.weixin.qq.com/s/6IUoCHjm9P_FZllxBlQHPQ

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-8-23 13:01 , Processed in 0.298091 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表