武大等发布大视觉模型最新安全综述:全面分类攻击策略、防御机制和评估方法

[复制链接]
周大 发表于 2025-3-11 15:15:31 | 显示全部楼层 |阅读模式
武汉大学等机构发布了关于大型视觉语言模型(LVLMs)安全性的综述论文,提出涵盖攻击、防御和评估的系统性安全分类框架。尽管LVLMs已在多个关键领域崭露头角,但研究表明仅用几百美元就能突破顶级模型的安全防线。论文深入分析了LVLM在训练和推理阶段面临的具体安全问题,并对DeepSeek最新发布的Janus-Pro模型进行安全性测试,发现其存在明显短板。未来LVLM安全性研究将聚焦于黑盒攻击、跨模态安全对齐、安全微调技术多样化等方面,以提升模型的安全性和鲁棒性。
来源:https://mp.weixin.qq.com/s/_T9AdzGa-U_fkP6A2SQ8iw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-7 16:16 , Processed in 0.273539 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表