3D实时渲染大型场景,一台电脑,甚至一部手机就可以完成。
从家里的客厅到主卧,储物间,厨房,卫生间各个死角,都能逼真在电脑中完成渲染,如同拍摄实物视频一般。
而且,你还可以在一台iPhone上完成复杂场景渲染。
来自谷歌、谷歌DeepMind和图宾根大学的研究人员最近提出了一种全新技术SMERF。
它可以在智能手机和笔记本电脑各种设备上实时渲染大型视图场景。
论文地址:https://arxiv.org/pdf/2312.07541.pdf
本质上讲,SMERF是一种基于NeRFs的方法,依赖于内存效率更高的MERF(Memory-Efficient Radiance Fields)。
NeRF已死?
当前,辐射场(Radiance fields)已成为一种强大且易于优化的表示形式,用于重建和重新渲染逼真的真实3D场景。
与网格和点云等显式表示相反,辐射场通常存储为神经网络并使用体积射线行进进行渲染。
在给定足够大的计算预算的情况下,神经网络可以简明地表示复杂的几何形状和依赖于视图的效果。
作为体积表示,渲染图像所需的操作数量以像素数量而不是图元(例如三角形)的数量为单位,性能最佳的模型需要数千万次网络评估。
因此,辐射场的实时方法在质量、速度或表示大小方面做出了让步,并且这种表示是否可以与高斯泼溅(Gaussian Splatting )等替代方法竞争,仍然是一个悬而未决的问题。
最新研究中,作者提出了一种可扩展的方法,从而实现比以往更高保真度的实时大空间渲染。
SMERF实时渲染,精度达厘米级别
SMERF专门为学习大型3D表示所设计,比如房屋的渲染。
谷歌等研究人员结合一种分层模型划分的方案,其中空间的不同部分和学习参数由不同的MERF表示。
这不仅增加了模型容量,而且同时限制了计算和内存要求。因为类似这样大型的3D表示是无法用经典NERF进行实时渲染。
SMERF中有K=3坐标空间分区和P=4延迟外观网络子分区的场景的坐标系
为了提升SMERF的渲染质量,研究团队还使用了一种「教师—学生」的蒸馏方法。
在这个方法中,已经训练好的高质量Zip-Nerf模型(教师),被用来训练一个新的MERF模型(学生)。
如下图,「教师监督」的整体流程。教师模型通过渲染颜色提供光度监督,并通过沿相机光线的体积权重提供几何监督。教师和学生都在同一组光线间隔上进行操作。
这种方法可以让研究人员将功能强大的Zip-Nerf模型的细节和图像质量,转移到更高效、更快的结构上。
这对智能手机和笔记本电脑等功能较弱的设备上的应用尤其有用。
实验评估
研究人员首先在Zip-NeRF引入的4大场景上评估了方法:柏林、阿拉米达、伦敦和纽约。
这些场景中的每一个都是使用180°鱼眼镜头拍摄的1,000-2,000 张照片。为了与3DGS进行全面比较,研究人员将照片裁剪为110°,并使用COLMAP重新估计相机参数。
表1所示的结果表明,对于适度的空间细分K,最新方法的精度大大超过了MERF和3DGS。
随着K的增加,模型的重建精度提高,并接近其 Zip-NeRF老师的精度,在K=5时差距小于0.1 PSNR和0.01 SSIM。
研究人员还发现这些定量的改进低估了重建的定性改进准确性,如图5所示。
在大型场景中,SMERF方法一致地对薄几何体、高频纹理、镜面高光和实时基线达不到的远处内容进行建模。
同时,研究人员发现增加子模型分辨率自然会提高质量,特别是在高频纹理方面。
实际上,研究人员发现最新渲染方法与Zip-NeRF几乎没有区别,如图8所示。
此外,研究人员在室内和室外场景的mip-NeRF 360数据集上进一步评估了最新方法。
这些场景比Zip-NeRF数据集中的场景小得多,因此无需空间细分即可获得高质量结果。如表2所示,模型的K=1版本在图像质量方面优于该基准测试中的所有先前实时模型,渲染速度与3DGS相当。
图6和图8定性地说明了这种改进,研究人员提出的方法在表示高频几何和纹理方面要好得多,同时消除了分散注意力的漂浮物和雾。
网页即可传输逼真3D空间
一旦经过训练,SMERF就可以在浏览器汇总实现完全6个自由度的导航,并在流行的智能手机和笔记本电脑上进行实时渲染。
人人都知,实时渲染的大型3D场景的能力对于各种应用非常重要,包括视频游戏、虚拟增强现实,以及专业设计和架构应用程序。
比如,谷歌沉浸式地图中,可以进行实时导航。
不过谷歌等团队提出的最新方法也有一定的局限性。虽然SMERF有出色的重建质量和存储效率,但存储成本高、加载时间长、训练工作量大。
不过,这项研究表明,与三维高斯拼接法相比,NeRFs和类似的辐射场在未来仍具有优势。
文章来源于互联网:一部iPhone实时渲染300平房间,精度达厘米级别!谷歌最新研究证明NeRF没死 | https://www.51cto.com/article/779222.html