北京大学最新综述:视觉大模型中的漏洞与攻防对抗

[复制链接]
周大 发表于 2024-7-30 16:05:16 | 显示全部楼层 |阅读模式
北京大学团队发布了一项关于视觉语言大模型(LVLM)攻击方法的综述报告。报告指出,尽管LVLM在多项任务中表现出色,但易受到多种攻击手段的影响,包括对抗攻击、越狱攻击、提示注入攻击和数据投毒/后门攻击。这些攻击手段可能严重威胁到LVLM在医疗图像识别、自动驾驶等领域的应用安全性。此外,报告还强调了未来研究面临的挑战,包括提高攻击的实用性和自适应性、开发跨模态对抗样本等。
来源:https://mp.weixin.qq.com/s/Lr9VZF6pOPFwm_FTq65f4w

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-19 01:18 , Processed in 0.329796 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表