OpenAI提出的CLIP,被Meta联合谢赛宁、刘壮,扩展到全球300+语言

[复制链接]
周大 发表于 2025-7-31 13:28:14 | 显示全部楼层 |阅读模式
Meta与多所高校联合提出MetaCLIP 2,首次在300余种语言的全球图文对上从零训练CLIP模型,无需依赖翻译或外部资源。研究发现“多语言诅咒”源于训练规模不足,通过扩展元数据、优化筛选算法与训练策略,在ViT-H/14模型上实现英语准确率81.3%及多项多语言检索SOTA。该模型支持原生语言监督、文化多样性,并提供全球基础数据集,推动多模态模型发展。
来源:https://mp.weixin.qq.com/s/yyS2RZI-hFxcAMxD00ZEbg

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-8-22 20:29 , Processed in 0.279222 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表