人类自身都对不齐,怎么对齐AI?新研究全面审视偏好在AI对齐中的作用

[复制链接]
周大 发表于 2024-10-22 16:03:32 | 显示全部楼层 |阅读模式
一项由麻省理工学院、加州大学伯克利分校、伦敦大学学院和剑桥大学联合开展的研究发现,人类自身难以实现价值观对齐,因此更难让AI与人类价值观对齐。研究团队批判了当前基于人类偏好的AI对齐方法,指出人类行为并不完全遵循理性选择理论,高级AI也不一定会最大化某个效用函数。他们建议将AI直接与“优秀助手”等规范性理想目标对齐,并提出了一系列替代方案,以解决现有方法的技术和哲学难题。
来源:https://mp.weixin.qq.com/s/ADyxQQ5B8_Vd1eXBq1gHhg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-18 02:40 , Processed in 0.293215 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表