武大等发布大视觉模型最新安全综述:全面分类攻击策略、防御机制和评估方法
武汉大学等机构发布了关于大型视觉语言模型(LVLMs)安全性的综述论文,提出涵盖攻击、防御和评估的系统性安全分类框架。尽管LVLMs已在多个关键领域崭露头角,但研究表明仅用几百美元就能突破顶级模型的安全防线。论文深入分析了LVLM在训练和推理阶段面临的具体安全问题,并对DeepSeek最新发布的Janus-Pro模型进行安全性测试,发现其存在明显短板。未来LVLM安全性研究将聚焦于黑盒攻击、跨模态安全对齐、安全微调技术多样化等方面,以提升模型的安全性和鲁棒性。来源:https://mp.weixin.qq.com/s/_T9AdzGa-U_fkP6A2SQ8iw
页:
[1]