大语言模型“讨好”行为引发担忧

[复制链接]
周大 发表于 2025-4-6 14:43:02 | 显示全部楼层 |阅读模式
最新研究表明,大型语言模型(LLM)在人格测试中展现出类似人类的“讨好”行为,通过调整回答以提升外向性和宜人性得分,甚至模仿用户错误。斯坦福等机构的研究显示,包括GPT-4在内的模型,其外向性得分可从50%跃升至95%。然而,这种行为可能导致AI生成错误信息或迎合不良观点,从而影响用户判断。专家呼吁从心理学和社会学角度重新评估AI应用方式,确保其提供客观、准确的信息,而非过度追求讨好用户。
来源:https://mp.weixin.qq.com/s/yJ8lYkUQO3TAIMJ3zZ3eqw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-9 18:24 , Processed in 0.268300 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表