【NeRF及其代码NeRF-Pytorch实现】

文章目录

  • 模型输入和输出

  • NeRF-Pytorch代码

  • 参考

  • 在没有仔细学习过NeRF之前,对于NeRF的直观感受是,它是对某个场景三维模型的一个拟合,并且实现了一个渲染的效果,即输入相机位姿信息,输出对应位姿信息的渲染图像。

  • NeRF训练的过程实际上是三维重建/反渲染的过程,即通过渲染的图片来得到三维模型的隐式表达。而NeRF模型训练完成之后的推理过程是渲染过程。

模型输入和输出

  • 直观理解的网络

  • 实际实现的细节

  • 输入(理解层面是相机位姿,实际是采样点的位置和观测角度):5D的相机位姿信息 ( x , y , z , θ , ϕ ) (x, y, z, \theta, \phi) (x,y,z,θ,ϕ),其中包括了相机的三维位置以及角度(包括俯仰角和方位角)。但是在实际代码实现过程中使用两个(x, y, z)来代替5D的位姿信息,并且使用了位置编码(用于增强)的方式来编码6D坐标,最后得到63维+27维的输入。并且作者认为采样点不透明度与观测角度无关,只与采样点位置有关,所以采用了分开输入的方式,只使用相机坐标63维来预测不透明度,并在随后的层中cat进代表相机方向的坐标27维。

  • 输出:NeRF采用体积雾的渲染方式,NeRF模型的直接输出为采样点的颜色RGB以及不透明度信息,通过后处理(体积渲染进行积分,后面会提到)的方式得到最终渲染好的图像。

  • NeRF模型直接输出的含义:一段采样点上的RGBA值,在射线方向上进行积分得到最终一个像素点颜色值(体积雾渲染)。

  • 位置编码(增强高频信息):对于位置xyz坐标(对于两个不同的位置坐标都采用了位置编码,但是所使用的项数不同,相机位置使用10,而相机方向的坐标使用4),文章采用了位置编码的方式,具体而言,对于每个维度,使用cos和sin来编码,并且对于每个cos和sin,都是用了十项,所以输入维度变成 3 + ( 10 + 10 ) ∗ 3 = 63 3+(10+10)*3=63 3+(10+10)∗3=63

  • 训练资料:一个像素+一个相机位姿,而不是一张图+一个相机位姿。一个batch包含很多不同位置像素+位姿。

  • 体积渲染:其中特定的积分方式考虑了遮挡问题(主要考虑第一个波峰的贡献)。采样点个数也是一个超参数。

  • 分层采样

NeRF-Pytorch代码

参考

相关推荐
Jonathan Star几秒前
MediaPipe 在Python中实现人体运动识别,最常用且高效的方案是结合**姿态估计**(提取人体关键点)和**动作分类**(识别具体运动)
开发语言·python·分类
leafff1233 分钟前
一文了解LLM应用架构:从Prompt到Multi-Agent
人工智能·架构·prompt
山顶听风23 分钟前
分页条初始化
python
无风听海30 分钟前
神经网络之特征值与特征向量
人工智能·深度学习·神经网络
艾莉丝努力练剑35 分钟前
【C++:红黑树】深入理解红黑树的平衡之道:从原理、变色、旋转到完整实现代码
大数据·开发语言·c++·人工智能·红黑树
九章云极AladdinEdu39 分钟前
论文分享 | BARD-GS:基于高斯泼溅的模糊感知动态场景重建
人工智能·新视角合成·动态场景重建·运动模糊处理·3d高斯泼溅·模糊感知建模·真实世界数据集
希露菲叶特格雷拉特1 小时前
PyTorch深度学习笔记(二十)(模型验证测试)
人工智能·pytorch·笔记
NewsMash1 小时前
PyTorch之父发离职长文,告别Meta
人工智能·pytorch·python
IT_陈寒1 小时前
Python 3.12新特性实测:10个让你的代码提速30%的隐藏技巧 🚀
前端·人工智能·后端
Ztop1 小时前
GPT-5.1 已确认!OpenAI下一步推理升级?对决 Gemini 3 在即
人工智能·gpt·chatgpt