周大 发表于 2024-10-23 15:35:02

谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍

纽约大学谢赛宁团队提出REPA方法,通过与外部视觉表征对齐,显著提升生成模型的训练效率和生成质量。实验结果显示,REPA可将SiT/DiT的训练速度提升18倍,并在ImageNet 256x256上实现FID=1.42的SOTA性能。该方法具有良好的可扩展性,适用于不同规模的模型和多种视觉表征。
来源:https://mp.weixin.qq.com/s/qE_gIiWlfN_6gPyg9OGBqw
页: [1]
查看完整版本: 谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍