多模态版DeepSeek-R1:评测表现超GPT-4o,模态穿透反哺文本推理能力!北大港科大出品,已开源
北京大学与香港科技大学合作开发的多模态版DeepSeek-R1——Align-DS-V,其视觉理解能力超越GPT-4o,并在ARC-Challenge中将成绩从21.4提升至40.5。该模型能精准解析图文问题,且已实现香港地区价值观本地化对齐。研究团队还发布了全模态人类偏好数据集Align-Anything,涵盖高质量图、文、视频、语音数据,推动了多模态AI发展,目前Align-DS-V已开源。来源:https://mp.weixin.qq.com/s/_S4tovrggFZdPIqFuos2Nw
页:
[1]