Meta发布VideoJAM,大幅提升视频运动一致性

[复制链接]
周大 发表于 2025-2-10 13:38:52 | 显示全部楼层 |阅读模式
Meta GenAI团队提出VideoJAM框架,有效解决视频生成中的运动一致性难题。该框架基于DiT路线,在处理复杂动作(如舞蹈、书法)时表现出色,且可无缝集成到不同规模的DiT模型中。实验结果显示,在4B和30B DiT模型上,运动质量分别提升了19.67%和4.88%,超越Gen3、Sora等模型。VideoJAM通过引入联合外观-运动表示及内部引导机制,实现了高质量的运动一致性。
来源:https://mp.weixin.qq.com/s/rP5bkkJQbRG0wtskpzguqw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-20 23:33 , Processed in 0.313606 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表