周大 发表于 2024-8-25 14:34:54

引入DiT的原生3D通用框架,适用任意神经场、秒级生成

在ECCV 2024中,研究者提出了名为LN3Diff的新3D生成框架,旨在解决现有原生3D生成模型存在的问题。该方法采用了3D VAE和3D-DiT的两阶段通用3D生成框架,能够在3D潜空间直接进行diffusion采样,实现高效、高质量的3D资产生成。LN3Diff在Objaverse数据集上进行了大规模训练,取得了优异的成绩和更快的推理速度,并已全面开源。
来源:https://mp.weixin.qq.com/s/wxvD7NOXS35aG6cKNVErOg
页: [1]
查看完整版本: 引入DiT的原生3D通用框架,适用任意神经场、秒级生成