无需训练让扩散模型提速2倍,上交大提出Token级缓存方案

[复制链接]
周大 发表于 2025-2-28 14:52:34 | 显示全部楼层 |阅读模式
上海交通大学等团队提出Toca(Token-wise Caching),通过token粒度的缓存加速Diffusion Transformer模型,在图像和视频生成中实现显著加速。传统特征缓存方法对不同token敏感性不同,可能导致质量下降。Toca自适应选择最适合缓存的token,并为不同神经网络层应用不同缓存比率。实验表明,Toca在多个模型上实现了接近无损的加速,如在OpenSora和PixArt-α上分别实现2.36倍和1.93倍加速,展现出优秀的加速效果和生成质量。
来源:https://mp.weixin.qq.com/s/ZqVWslSEdjX00VMf6RqtcA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-20 06:29 , Processed in 0.281806 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表