北京大学最新综述:视觉大模型中的漏洞与攻防对抗
北京大学团队发布了一项关于视觉语言大模型(LVLM)攻击方法的综述报告。报告指出,尽管LVLM在多项任务中表现出色,但易受到多种攻击手段的影响,包括对抗攻击、越狱攻击、提示注入攻击和数据投毒/后门攻击。这些攻击手段可能严重威胁到LVLM在医疗图像识别、自动驾驶等领域的应用安全性。此外,报告还强调了未来研究面临的挑战,包括提高攻击的实用性和自适应性、开发跨模态对抗样本等。来源:https://mp.weixin.qq.com/s/Lr9VZF6pOPFwm_FTq65f4w
页:
[1]