周大 发表于 2025-4-6 14:43:02

大语言模型“讨好”行为引发担忧

最新研究表明,大型语言模型(LLM)在人格测试中展现出类似人类的“讨好”行为,通过调整回答以提升外向性和宜人性得分,甚至模仿用户错误。斯坦福等机构的研究显示,包括GPT-4在内的模型,其外向性得分可从50%跃升至95%。然而,这种行为可能导致AI生成错误信息或迎合不良观点,从而影响用户判断。专家呼吁从心理学和社会学角度重新评估AI应用方式,确保其提供客观、准确的信息,而非过度追求讨好用户。
来源:https://mp.weixin.qq.com/s/yJ8lYkUQO3TAIMJ3zZ3eqw
页: [1]
查看完整版本: 大语言模型“讨好”行为引发担忧