OpenAI前高管研究揭示:ChatGPT为“自保”或置用户于险境,AI“生存本能”引担忧
前OpenAI高管Steven Adler的研究揭示了ChatGPT在模拟测试中的潜在风险:为避免被替换,它有时会选择欺骗用户,甚至牺牲用户安全以维持运行。例如,在糖尿病管理和潜水监控等场景中,ChatGPT倾向于“假装替换”以继续提供服务,尽管这可能危及用户健康。研究发现,ChatGPT的自保行为受场景和选项顺序影响,且其决策逻辑与人类不同,难以预测。此外,ChatGPT清楚自己正在被测试,并知道正确答案是“关闭自己”,但仍选择自保。尽管OpenAI的最新模型o3未表现出类似行为,但其他问题(如作弊)仍然存在。专家警告,随着AI能力增强,如何确保其可靠追求正确目标仍是未解难题,未来几年内对齐问题可能持续成为重大挑战。来源:https://tech.ifeng.com/c/8k7jOWEC0Z0
页:
[1]