腾讯混元-TurboS:首个混合Transformer-Mamba MoE超大模型来了

[复制链接]
周大 发表于 2025-3-11 15:18:39 | 显示全部楼层 |阅读模式
腾讯混元团队发布Hunyuan-TurboS,首次将Mamba与Transformer架构结合,有效解决长文本处理难题。该模型在多个基准测试中超越或持平GPT-4o-0806等模型,推理成本降低7倍。通过后训练优化及奖励系统升级,进一步提升模型性能。Mamba由卡耐基梅隆大学和普林斯顿大学研究人员主导开发,其线性计算复杂度使长序列处理更高效。
来源:https://tech.ifeng.com/c/8hbYegR6fAG

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-7 16:16 , Processed in 0.302732 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表