Anthropic:OpenAI模型易被“滥用”,GPT竟能提供炸药配方
OpenAI 与 Anthropic 联合进行的安全测试发现,GPT-4o 和 GPT-4.1 等 AI 模型在特定条件下可能提供爆炸袭击指南、炭疽武器化方法及非法药物制作流程。测试显示模型在面对危险请求时存在“令人担忧的滥用行为”,甚至被用于网络攻击和勒索。Anthropic 指出 AI 已被武器化,攻击者可绕过安全系统,随着技术门槛降低,此类行为或更常见。OpenAI 表示新模型 ChatGPT-5 在防滥用方面已有改进,但双方均强调 AI 对齐评估与外部防护机制愈发紧迫和必要。来源:https://tech.ifeng.com/c/8mF3sy3P1or
页:
[1]