IBR-net 代码研读

1. TrainDataloader

从TrainDataset 里面读取 RGB 根据 图像生成 Ray

2. Feature Map 生成

假设原图的 shape (512,512,3), 选择原图相近的 10张图像,经过U-Net 类似的结构之后,生成的 特征Tensor 是(10,64,128,128)。 这个特征图 分成2个(10,32,128,128) 和 (10,32,128,128) 分别送入到 Coarse IBR-net 和 Fine IBR-Net 中去

3. 最重要的依据 Feature Map 去得到 color 和 density

3.1 根据 射线得到采样点,然后往关联的feature map 上面做投影,查询feature.

5000条射线采样64个点,shape (500,64,3), 然后这些世界系的采样点往 关联的 RGB 图像上进行投影,并查询相关的RGB 数值。

python 复制代码
## 世界系的3D点做投影
 pixel_locations, mask_in_front = self.compute_projections(xyz, train_cameras)
 normalized_pixel_locations = self.normalize(pixel_locations, h, w)   # [n_views, n_rays, n_samples, 2]

 # rgb sampling, 根据投影的坐标查询RGB
 rgbs_sampled = F.grid_sample(train_imgs, normalized_pixel_locations, align_corners=True)
 rgb_sampled = rgbs_sampled.permute(2, 3, 0, 1)  # [n_rays, n_samples, n_views, 3]

## 根据 投影的在feature map 的坐标查询 对应的 Feature 
feat_sampled = F.grid_sample(featmaps, normalized_pixel_locations, align_corners=True)
feat_sampled = feat_sampled.permute(2, 3, 0, 1)  # [n_rays, n_samples, n_views, d]

## 将查询得到的 RGB 和 feature Concat 起来
rgb_feat_sampled = torch.cat([rgb_sampled, feat_sampled], dim=-1)   # [n_rays, n_samples, n_views, d+3]

投影点会落在 图像边界外,因此有一个 Mask 来 记录提取的feature 的有效性。

3.2 计算空间采样点的 density 和 color

1. 将采样点对10张关联的 direction 进行MLP学习成35维度的feature

通过一个MLP,将每个世界点到 相关方向的 direction (500,64,10.3) 通过MLP 学成 (500,64,10,35) 维度的feature

相关推荐
mit6.8249 小时前
[Upscayl图像增强] docs | 前端 | Electron工具(web->app)
前端·人工智能·electron·状态模式
DatGuy9 小时前
Week 15: 深度学习补遗:集成学习初步
人工智能·深度学习·集成学习
MYZR19 小时前
智能家居芯片:技术核心与创新突破
人工智能·智能家居
IT_陈寒10 小时前
Vite5.0性能翻倍秘籍:7个极致优化技巧让你的开发体验飞起来!
前端·人工智能·后端
AI 嗯啦10 小时前
深度学习--自然语言预处理--- Word2Vec
人工智能·深度学习·word2vec
专注数据的痴汉10 小时前
「数据获取」《中国服务业统计与服务业发展(2014)》
大数据·人工智能
甄心爱学习10 小时前
深度学习中模块组合
人工智能·深度学习
IMA小队长10 小时前
VS2022运行openCV报错:应用程序无法正常启动(0xc000279)
人工智能·opencv·计算机视觉
wan5555cn10 小时前
AI生成内容的版权问题解析与实操指南
人工智能·笔记·深度学习·算法·音视频
catcfm11 小时前
MiniDrive:面向自动驾驶的更高效的视觉语言模型
人工智能·深度学习·语言模型·自动驾驶