DeepMind新研究:识别大语言模型的“幻觉”与不确定性

[复制链接]
周大 发表于 2024-6-8 16:21:28 | 显示全部楼层 |阅读模式
DeepMind的最新研究聚焦于解决大型语言模型(LLM)的不确定性问题,特别是其在输出信息时可能出现的虚假或不准确情况。研究团队开发了一种名为“迭代提示”的技术,能够区分LLM的认知不确定性(对事实的不了解)和偶然不确定性(答案的随机性)。通过信息论度量,他们提出的新算法能有效检测模型的“幻觉”,即高认知不确定性输出。实验结果显示,该算法在检测这类输出时表现优于其他基线方法,有助于提高LLM在需要准确信息的领域的可靠性。
来源:https://mp.weixin.qq.com/s/MurapI7vQVRqMhX8W_neeA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-19 15:36 , Processed in 0.294735 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表