周大 发表于 2024-6-4 15:55:59

Mamba 2再战Transformer架构,训练效率大幅提升

卡内基梅隆大学和普林斯顿大学的研究者推出了Transformer架构的改进版Mamba 2,通过状态空间模型(SSM)框架,解决了Transformer计算量随序列增长的问题,提升了训练效率。Mamba 2在保持竞争力的同时,训练速度提高了2-8倍,且在需要更大状态容量的任务上表现出色。研究还揭示了SSM与注意力机制的互补性,为序列模型的未来发展提供了新思路。
来源:https://mp.weixin.qq.com/s/31t6pJqcXrZDjT6XiJZC_g
页: [1]
查看完整版本: Mamba 2再战Transformer架构,训练效率大幅提升