国产视觉模型Glint-MVT实现新突破
格灵深瞳推出的国产视觉基础模型Glint-MVT,在26个分类测试中超越CLIP和OpenCLIP,平均准确率分别高出1.1%和2.3%。该模型采用创新的间隔Softmax损失函数与百万级虚拟类别训练,显著提升数据规模和泛化能力。基于此开发的Glint-RefSeg和MVT-VLM多模态模型,分别在图像分割与理解领域达到业界领先水平,并支持视频分割和具身智能任务。格灵深瞳坚持从实际需求出发,注重AI落地,同时积极拥抱开源,推动技术创新与生态建设。来源:https://mp.weixin.qq.com/s/CXEGGF9tJUycreIpPgV98Q
页:
[1]