中国科学院科学家首次证实:大语言模型能像人类一样“理解”事物
中国科学院团队通过结合行为实验与神经影像分析,首次证明多模态大语言模型(MLLMs)能够自发形成与人类相似的物体概念表征系统。研究采用“三选一异类识别任务”,分析470万次数据后构建了AI“概念地图”,并提取出66个可解释的心智维度,发现其与大脑神经活动模式密切相关。结果显示,多模态模型如Gemini_Pro_Vision、Qwen2_VL在行为选择上更接近人类,且模型理解能力超越简单模仿。这一成果发表于《自然・机器智能》,为人工智能认知科学开辟了新方向。来源:https://tech.ifeng.com/c/8k5q2kQAOVV
页:
[1]