周大 发表于 2025-7-28 14:54:50

研究揭示多模态大模型存在核心认知缺陷:规模扩大难补基础理解短板

ICML 2025 高分论文揭示,当前主流多模态大模型(MLLM)在高层次任务表现优异,却在基础认知任务如物体恒存、空间推理等方面频繁出错,暴露出“核心认知缺陷”。研究团队构建了包含 1503 个图像-问题对的测评体系 CoreCognition,覆盖 12 项核心认知概念,并通过 2530 个评估数据点测试 230 款模型。结果显示,模型在基础任务中表现远逊于复杂任务,且模型规模扩大并未改善基础认知能力,甚至出现“越大越差”的现象。通过“Concept Hacking”干预测试,发现许多模型依赖语言捷径而非真正理解概念。该研究印证“Moravec 悖论”,挑战当前以规模驱动的发展路径,提出需在预训练中注入常识、引入认知引导训练机制,以推动更接近人类的通用智能发展。
来源:https://mp.weixin.qq.com/s/6pim9mdJhtuZJptxR6NrYg
页: [1]
查看完整版本: 研究揭示多模态大模型存在核心认知缺陷:规模扩大难补基础理解短板