大模型是否有自知之明?新研究发现LLM可以知晓自己的知识范围

[复制链接]
周大 发表于 2025-3-1 16:24:30 | 显示全部楼层 |阅读模式
一项由Chandar Research Lab等机构开展的研究表明,大型语言模型(LLM)具备“自知之明”,即知晓自身知识范围的能力。实验通过生成新数据并控制变量,测试了多种架构(如OPT、Flan-T5)及不同参数量的模型。结果显示,模型规模增大通常带来性能提升,但超过一定阈值后效果会减弱。有趣的是,Flan-T5模型在简化设置下表现出色,但在标准设置中却遇到困难。该研究表明,当规模足够大时,LLM确实能够意识到自己的知识边界,这为理解AI认知能力提供了新的视角。
来源:https://mp.weixin.qq.com/s/_SGEw75r6SjcB5JUTg9ENw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-20 04:02 , Processed in 0.298732 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表