Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

[复制链接]
周大 发表于 3 天前 | 显示全部楼层 |阅读模式
英伟达发布NVIDIA Nemotron Nano 2模型,采用Mamba-Transformer混合架构,在推理准确率上与Qwen3-8B相当或更优,吞吐量提升最高达6倍。该模型基于Mamba-2架构,显著提升长序列推理速度,并通过压缩技术将120B参数模型精简至9B,支持128K上下文。英伟达已全面开源模型及配套数据集,涵盖数学、代码、多语言等内容,成为当前开源大模型生态的重要推动者之一。
来源:https://tech.ifeng.com/c/8lwK6xC4GxJ

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-8-22 06:20 , Processed in 0.306337 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表