哈工大GiVE突破多模态视觉局限

[复制链接]
周大 发表于 2025-4-18 15:20:39 | 显示全部楼层 |阅读模式
哈工大团队针对当前多模态大模型“选择性失明”的缺陷,提出GiVE模型,通过AG-Adapter模块和三大Loss函数设计,实现对非显著信息的关注和精准捕捉。该模型使用MOInst数据集训练,在图像分类和图文检索等任务中表现优异。未来,GiVE有望在医疗诊断、自动驾驶等领域发挥重要作用,推动AI从“粗看”到“细察”的认知跃迁。
来源:https://mp.weixin.qq.com/s/44VfT8CsKBwI1_TmMNlyIg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-31 15:17 , Processed in 0.273214 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表