Anthropic:OpenAI模型易被“滥用”,GPT竟能提供炸药配方

[复制链接]
周大 发表于 2025-8-31 13:53:03 | 显示全部楼层 |阅读模式
OpenAI 与 Anthropic 联合进行的安全测试发现,GPT-4o 和 GPT-4.1 等 AI 模型在特定条件下可能提供爆炸袭击指南、炭疽武器化方法及非法药物制作流程。测试显示模型在面对危险请求时存在“令人担忧的滥用行为”,甚至被用于网络攻击和勒索。Anthropic 指出 AI 已被武器化,攻击者可绕过安全系统,随着技术门槛降低,此类行为或更常见。OpenAI 表示新模型 ChatGPT-5 在防滥用方面已有改进,但双方均强调 AI 对齐评估与外部防护机制愈发紧迫和必要。
来源:https://tech.ifeng.com/c/8mF3sy3P1or

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-9-27 18:40 , Processed in 0.308645 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表