免训练框架 VL-SAM 实现高效开放式目标检测与分割

[复制链接]
周大 发表于 2024-11-16 13:46:27 | 显示全部楼层 |阅读模式
北京大学王选计算机研究所提出了一种无需训练的开放式目标检测和分割框架VL-SAM。该框架结合了视觉语言模型(VLM)和分割基础模型(SAM),通过注意力图作为提示进行连接。在长尾数据集LVIS和自动驾驶corner case数据集CODA上,VL-SAM均取得了优异的表现,展示了强大的模型泛化能力。这一成果已被NeurIPS 2024录用,有望在实际应用中发挥重要作用。
来源:https://mp.weixin.qq.com/s/Cv0ldbjJkl_lv89ZZBOn3Q

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-26 23:37 , Processed in 0.282878 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表