85倍速度碾压:苹果开源FastVLM,能在iphone直接运行的视觉语言模型

[复制链接]
周大 发表于 3 天前 | 显示全部楼层 |阅读模式
苹果近期开源了FastVLM模型,该模型基于新型混合视觉编码器FastViTHD,专注于解决体积与速度问题。相较于传统模型,其首个token输出速度提升85倍,视觉token数量减少16倍。FastVLM提供0.5B、1.5B、7B三种参数量级版本,适合边缘设备和实时图文任务。研究团队通过大量实验证明,FastViTHD在不同分辨率和LLM规模下均表现出显著性能优势。
来源:https://mp.weixin.qq.com/s/QPEGEnSy3m_3EWSz__lnEQ

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-20 10:55 , Processed in 0.307368 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表