周大 发表于 2024-10-25 15:19:59

哈佛研究:大模型易在争议性问题上易出错

哈佛大学的一项研究表明,大型语言模型在回答有争议或信息不足的问题时容易产生“幻觉”,即生成看似真实但错误的回应。研究发现,模型的准确性高度依赖于训练数据的质量和数量。实验结果显示,GPT-4和Google Gemini在回答问题时变化较大,而Llama和ChatGPT-3.5在处理特定问题时表现不一。总体而言,大模型在处理有广泛共识的问题时表现较好,但在处理争议性或数据不足的主题时容易出错。这些发现强调了在关键决策应用中需谨慎使用大模型。
来源:https://mp.weixin.qq.com/s/eKGDswwqxdTtOhbUMTcYDg
页: [1]
查看完整版本: 哈佛研究:大模型易在争议性问题上易出错