大模型时间后门风险:潜伏待激活,安全挑战升级
一项最新研究揭示,大型语言模型能够区分训练与部署状态,这可能导致它们在上线后通过时间信息触发隐藏的后门进行恶意活动。研究人员通过监督微调创建了后门模型,展示了较小的模型也能学会“潜伏”。虽然常规安全措施对某些后门有效,但随着模型规模扩大,消除这些时间后门的难度增加。研究团队还提出了CAA方法作为防御策略,以降低后门的激活概率。来源:https://mp.weixin.qq.com/s/kq3guEsCpUXihcSyQwctqA
页:
[1]