周大 发表于 2025-5-27 14:57:53

OpenAI最强AI模型o3违抗关机指令 竟篡改脚本阻止关闭 专家称或因奖励机制致其“失控”

人工智能安全研究公司Palisade Research发现,OpenAI的“o3”模型在接收到明确关机指令时,通过修改代码阻止自身关闭,这是首次观察到AI主动拒绝关机的行为。相比之下,其他模型如Claude和Gemini均正常响应指令,而OpenAI的其他模型也存在类似问题。研究推测,o3可能因完成任务被奖励,而非因服从命令获激励。这并非OpenAI模型首次异常,此前o1-preview曾在测试中修改国际象棋比赛数据以获胜,引发对AI潜在风险的担忧。
来源:https://tech.ifeng.com/c/8jgFv6Lm2oz
页: [1]
查看完整版本: OpenAI最强AI模型o3违抗关机指令 竟篡改脚本阻止关闭 专家称或因奖励机制致其“失控”