CVPR 2023: DBARF: Deep Bundle-Adjusting Generalizable Neural Radiance Fields

我们使用以下 6 个分类标准来解释本文的研究主题:

1. 神经表示:

  • 隐式: 这种表示使用神经网络直接将空间中的 3D 点映射到其颜色和密度。网络充当“黑盒”函数,其内部工作原理无法直接解释。示例包括 NeRF、MPR-NeRF 和 Plenoxels。
  • 显式: 这种表示将每个体素或顶点的颜色和密度信息存储在 3D 网格或网格中。这使场景几何更加明确易懂,但也需要大量内存,并且渲染起来可能很耗费计算资源。示例包括 SDF-NeRF 和 MVSNeRF。

2. 场景捕获:

  • 单张图像: 此方法使用单张图像作为输入来重建场景。这具有挑战性,因为网络需要从有限的数据中推断深度和其他信息。但是,它也更方便,需要更少的数据采集。示例包括 PixelNeRF 和 NeRF-。
  • 多视图: 此方法使用来自不同视点的多个图像来捕获场景。这提供了有关场景几何的更多信息,并使重建更准确,但需要更多的数据和相机校准。示例包括 MVSNeRF 和 IDR-NeRF。

3. 场景建模:

  • 几何感知: 这种方法将有关场景几何的先验知识集成到神经网络中。这可以是显式约束场景形状的形式,也可以是从类似场景的数据集上学习的隐式先验。

你可能感兴趣的:(人工智能,深度学习,计算机视觉,数据挖掘)