北大、清华、京东联合提出EventVAD,7B参数免训练成视频异常检测新SOTA

[复制链接]
周大 发表于 2025-7-20 13:43:39 | 显示全部楼层 |阅读模式
来自北大、清华与京东联合团队在 ACM MM 2025 发布了首个以事件为中心的 Training-Free 视频异常检测框架 EventVAD。该方法通过动态图与多模态大模型结合,在减少参数(仅 70 亿)的同时显著提升检测精度与效率。实验显示,EventVAD 在 UCF-Crime 数据集上实现 82.03% AUC,超越需 130 亿参数的 LAVAD;在 XD-Violence 数据集上 AUC 与 AP 均高出约 5%。该框架包含事件分割、图注意力、边界检测与异常评分四大模块,有效解决现有方法在时序理解与效率上的瓶颈,且已全面开源,为视频细粒度理解提供新范式。
来源:https://mp.weixin.qq.com/s/SStQN8pgFwV6ShrXk32ljQ

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-8-23 12:19 , Processed in 0.280085 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表