Meta Reality Labs与伊利诺伊大学厄巴纳-香槟分校合作推出MV-DUSt3R+,该模型可在2秒内完成复杂三维场景重建,显著优于之前的DUSt3R。通过多视图解码器块和交叉视图注意力块,MV-DUSt3R+无需相机校准和姿态估计,可处理任意数量的视图,并增强对不同参考视图选择的鲁棒性。实验表明,MV-DUSt3R+在多视角立体重建、相机位姿估计和新视图合成任务中表现出色,尤其在处理12至24个视角输入时,重建时间大幅缩短,为混合现实等领域提供了高效解决方案。
来源:https://mp.weixin.qq.com/s/4v8FEJ0p5wZIioQthBZC8A