研究揭示多模态大模型存在核心认知缺陷:规模扩大难补基础理解短板

[复制链接]
周大 发表于 2025-7-28 14:54:50 | 显示全部楼层 |阅读模式
ICML 2025 高分论文揭示,当前主流多模态大模型(MLLM)在高层次任务表现优异,却在基础认知任务如物体恒存、空间推理等方面频繁出错,暴露出“核心认知缺陷”。研究团队构建了包含 1503 个图像-问题对的测评体系 CoreCognition,覆盖 12 项核心认知概念,并通过 2530 个评估数据点测试 230 款模型。结果显示,模型在基础任务中表现远逊于复杂任务,且模型规模扩大并未改善基础认知能力,甚至出现“越大越差”的现象。通过“Concept Hacking”干预测试,发现许多模型依赖语言捷径而非真正理解概念。该研究印证“Moravec 悖论”,挑战当前以规模驱动的发展路径,提出需在预训练中注入常识、引入认知引导训练机制,以推动更接近人类的通用智能发展。
来源:https://mp.weixin.qq.com/s/6pim9mdJhtuZJptxR6NrYg

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-8-23 00:33 , Processed in 0.275780 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表