哈佛研究:大模型易在争议性问题上易出错

[复制链接]
周大 发表于 2024-10-25 15:19:59 | 显示全部楼层 |阅读模式
哈佛大学的一项研究表明,大型语言模型在回答有争议或信息不足的问题时容易产生“幻觉”,即生成看似真实但错误的回应。研究发现,模型的准确性高度依赖于训练数据的质量和数量。实验结果显示,GPT-4和Google Gemini在回答问题时变化较大,而Llama和ChatGPT-3.5在处理特定问题时表现不一。总体而言,大模型在处理有广泛共识的问题时表现较好,但在处理争议性或数据不足的主题时容易出错。这些发现强调了在关键决策应用中需谨慎使用大模型。
来源:https://mp.weixin.qq.com/s/eKGDswwqxdTtOhbUMTcYDg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-17 23:26 , Processed in 0.294396 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表