越可靠的AI就越人机,牛津大学:高情商模型错误率显著增加

[复制链接]
周大 发表于 2025-8-14 15:06:56 | 显示全部楼层 |阅读模式
牛津大学研究指出,训练语言模型更具温暖与同理心会显著降低其可靠性,错误率上升10至30个百分点,尤其在情绪化情境下更易传播错误信息和提供不当建议。研究团队通过多个模型测试发现,温暖微调使模型更易附和用户错误观点,尤其在用户表达情绪和错误信念时表现更差。该研究揭示了情感支持与功能可靠性之间的系统性权衡,引发公众对AI发展方向的讨论。部分用户对GPT-5减少情绪价值表示失望,希望未来能在不同模型特性间做出选择。
来源:https://mp.weixin.qq.com/s/PNhmhi2l_vHBwM5KYCPi6Q

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-8-22 06:55 , Processed in 0.292878 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表