英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈

[复制链接]
周大 发表于 2025-3-8 15:10:55 | 显示全部楼层 |阅读模式
英伟达团队提出MambaVision混合架构,在CVPR 2025发表。该架构结合Mamba和Transformer优势,在ImageNet-1K数据集上达到84.2%的Top-1准确率,FLOPs较MaxViT-B减少56%。在MS COCO和ADE20K数据集的目标检测、实例分割及语义分割任务中也显著超越同类模型。相比纯Mamba或ViT模型,MambaVision在处理速度和准确性方面均有显著提升,成为计算机视觉领域的新突破。
来源:https://mp.weixin.qq.com/s/GK_caDkKqbz1gZke6LmEgA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-12 17:29 , Processed in 0.280561 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表