3DGS三维高斯泼溅Windows使用指南

3DGS三维高斯泼溅Windows使用指南

目录

  1. 概述
  2. 3DGS技术原理详解
  3. Windows开源工具清单
  4. 手机拍摄到3DGS重建方案
  5. 电脑本地处理方案
  6. 免费软件推荐
  7. Meshroom使用指南
  8. 推荐工作流程
  9. 拍摄规范与技巧
  10. 训练参数调优指南
  11. 文件格式与数据交换
  12. 环境配置与常见问题
  13. 性能对比与基准测试
  14. 总结

概述

3DGS(3D Gaussian Splatting,三维高斯泼溅)是一种新兴的3D场景表示方法,能够从多视角照片快速重建高质量3D场景,并支持实时渲染和新视角合成。相比传统NeRF,3DGS具有速度更快、可编辑性更强的优势。

核心特点

复制代码
3DGS核心优势:
┌─────────────────────────────────┐
│ 显式表示:高斯点云                │
│ - 可编辑、可裁剪                  │
│ - 支持实时渲染                    │
└─────────────────────────────────┘
           ↓
┌─────────────────────────────────┐
│ 高效训练:数十分钟完成            │
│ - 消费级GPU即可                   │
│ - 实时预览(≥30fps,1080p)       │
└─────────────────────────────────┘
           ↓
┌─────────────────────────────────┐
│ 新视角合成:高质量渲染            │
│ - 支持任意视角                    │
│ - 细节丰富                        │
└─────────────────────────────────┘

应用场景

  • 场景重建:室内外场景的3D重建
  • 产品展示:商品、模型的3D展示
  • 虚拟漫游:VR/AR场景构建
  • 科研教学:机器人仿真、科研可视化
  • 内容创作:游戏资产、设计模型

3DGS技术架构图

复制代码
3DGS系统架构:
┌─────────────────────────────────────────────┐
│ 输入层                                      │
│ - 多视角照片(JPG/PNG)                     │
│ - 相机位姿(COLMAP输出)                    │
└─────────────────────────────────────────────┘
           ↓
┌─────────────────────────────────────────────┐
│ 预处理层                                      │
│ - 图像预处理(缩放、归一化)                │
│ - 位姿验证与优化                              │
│ - 稀疏点云初始化                              │
└─────────────────────────────────────────────┘
           ↓
┌─────────────────────────────────────────────┐
│ 训练层(核心)                                │
│ ┌───────────────────────────────────────┐  │
│ │ 可微光栅化                              │  │
│ │ - 3D→2D投影                            │  │
│ │ - 深度排序                              │  │
│ │ - Alpha混合                             │  │
│ └───────────────────────────────────────┘  │
│ ┌───────────────────────────────────────┐  │
│ │ 损失计算                                │  │
│ │ - L1损失                                │  │
│ │ - SSIM损失                              │  │
│ └───────────────────────────────────────┘  │
│ ┌───────────────────────────────────────┐  │
│ │ 反向传播                                │  │
│ │ - 参数更新                              │  │
│ └───────────────────────────────────────┘  │
│ ┌───────────────────────────────────────┐  │
│ │ 密度控制                                │  │
│ │ - 克隆/分割/剪枝                        │  │
│ └───────────────────────────────────────┘  │
└─────────────────────────────────────────────┘
           ↓
┌─────────────────────────────────────────────┐
│ 输出层                                        │
│ - PLY格式高斯点云                             │
│ - 渲染参数                                    │
└─────────────────────────────────────────────┘
           ↓
┌─────────────────────────────────────────────┐
│ 渲染层                                        │
│ - 实时光栅化                                  │
│ - 新视角合成                                  │
│ - 交互式查看                                  │
└─────────────────────────────────────────────┘

3DGS vs NeRF 对比

特性 3DGS NeRF
表示方式 显式高斯点云 隐式神经辐射场
训练时间 数十分钟 数小时到数天
渲染速度 实时(≥30fps) 慢(秒级)
可编辑性 高(可裁剪、编辑) 低(难以编辑)
存储大小 中等(几十MB到几GB) 小(几MB到几十MB)
新视角合成 优秀 优秀
细节质量 很高
硬件要求 消费级GPU 高端GPU

3DGS技术原理详解

核心概念

什么是高斯泼溅(Gaussian Splatting)

3DGS使用3D高斯函数来表示场景中的每个点,每个高斯点包含:

复制代码
高斯点数据结构:
┌─────────────────────────────────┐
│ 位置 (Position)                 │
│ - 3D坐标 (x, y, z)              │
└─────────────────────────────────┘
           ↓
┌─────────────────────────────────┐
│ 颜色 (Color)                     │
│ - RGB或SH(球谐函数)            │
└─────────────────────────────────┘
           ↓
┌─────────────────────────────────┐
│ 不透明度 (Opacity)                │
│ - α值(0-1)                     │
└─────────────────────────────────┘
           ↓
┌─────────────────────────────────┐
│ 协方差矩阵 (Covariance)          │
│ - 控制高斯椭球的形状和方向        │
│ - 3x3矩阵                        │
└─────────────────────────────────┘
高斯函数数学表示

每个3D高斯点可以用以下公式表示:

复制代码
G(x) = exp(-0.5 * (x-μ)ᵀ Σ⁻¹ (x-μ))

其中:

  • μ:高斯中心位置(3D坐标)
  • Σ:协方差矩阵(控制椭球形状)
  • x:3D空间中的任意点

工作流程

完整训练流程
复制代码
输入:多视角照片 + 相机位姿
    ↓
┌─────────────────────────────────┐
│ 1. 初始化                        │
│ - 从SfM点云初始化高斯点          │
│ - 或从随机位置开始                │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 2. 可微光栅化                    │
│ - 将3D高斯投影到2D图像平面      │
│ - 按深度排序                     │
│ - Alpha混合合成                  │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 3. 损失计算                      │
│ - L1损失(颜色差异)             │
│ - SSIM损失(结构相似性)         │
│ - 正则化项                       │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 4. 反向传播优化                  │
│ - 更新高斯参数                   │
│ - 位置、颜色、不透明度、协方差   │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 5. 自适应密度控制                │
│ - 克隆(高梯度区域)             │
│ - 分割(大高斯点)               │
│ - 剪枝(低不透明度点)           │
└─────────────────────────────────┘
    ↓
    迭代直到收敛
可微光栅化原理
复制代码
3D高斯点 → 2D投影
┌─────────────────────────────────┐
│ 步骤1:投影变换                  │
│ - 3D高斯点投影到图像平面          │
│ - 使用相机内参和外参              │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 步骤2:深度排序                  │
│ - 按深度值排序                    │
│ - 从前到后渲染                    │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 步骤3:Alpha混合                 │
│ - 按顺序混合颜色                  │
│ - C = Σ(αᵢ * cᵢ * ∏(1-αⱼ))      │
│   其中j < i                      │
└─────────────────────────────────┘

高斯点数据结构详解

完整数据结构

每个3D高斯点包含以下信息:

复制代码
高斯点 = {
    位置: (x, y, z)                    // 3D坐标
    颜色: RGB 或 SH系数                // 颜色信息
    不透明度: α ∈ [0, 1]              // 透明度
    协方差矩阵: Σ (3x3)               // 控制椭球形状
        或表示为: {
            缩放: (sx, sy, sz)         // 椭球大小
            旋转: 四元数 (q0, q1, q2, q3) // 椭球方向
        }
}
存储大小计算

单个高斯点存储

  • 位置:3 × 4 bytes = 12 bytes
  • 颜色(SH 3阶):48 × 4 bytes = 192 bytes
  • 不透明度:1 × 4 bytes = 4 bytes
  • 缩放:3 × 4 bytes = 12 bytes
  • 旋转:4 × 4 bytes = 16 bytes
  • 总计:约236 bytes/点

100万个高斯点

  • 约236 MB(未压缩)
  • 压缩后约50-100 MB

关键技术特性

1. 自适应密度控制

目的:动态调整高斯点的数量和分布

三种操作

操作 触发条件 作用
克隆 梯度大、不透明度高 在细节区域增加高斯点
分割 高斯点过大 将大高斯点分割成小点
剪枝 不透明度低 移除不重要的高斯点

效果

  • 细节区域:更多高斯点,更精细
  • 平滑区域:较少高斯点,更高效

密度控制流程

复制代码
训练开始:稀疏点云初始化
    ↓
┌─────────────────────────────────┐
│ 迭代过程中:                     │
│                                 │
│ 高梯度区域 → 克隆新点            │
│ 大高斯点 → 分割成小点            │
│ 低不透明度点 → 剪枝移除          │
└─────────────────────────────────┘
    ↓
训练结束:优化后的高斯点云

密度控制示例

复制代码
初始:1000个点
    ↓
迭代1000次:克隆 → 1500个点
    ↓
迭代5000次:分割大点 → 2000个点
    ↓
迭代10000次:剪枝低质量点 → 1800个点
    ↓
最终:1800个优化后的高斯点
2. 球谐函数(Spherical Harmonics)

用途:表示视角相关的颜色

优势

  • 比固定RGB更灵活
  • 可以表示不同视角下的颜色变化
  • 支持光照效果

阶数选择

  • 0阶:固定颜色(最简单)
  • 3阶:基础视角变化(常用)
  • 更高阶:更复杂的光照效果

球谐函数表示

复制代码
颜色 = SH(θ, φ)
    ↓
┌─────────────────────────────────┐
│ DC项(f_dc):基础颜色           │
│ - 3个系数(RGB)                │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 高阶项(f_rest):视角变化        │
│ - 15个系数(3阶SH)             │
│ - 45个系数(5阶SH)             │
└─────────────────────────────────┘

存储对比

SH阶数 系数数量 存储大小 质量
0阶 3 最小 固定颜色
3阶 48 中等 基础视角变化
5阶 108 较大 复杂光照
3. Mip-Splatting(抗锯齿)

问题:传统方法在缩放时出现锯齿

解决方案

  • 根据视角距离调整高斯点大小
  • 使用多尺度表示
  • 提升渲染质量

效果

  • 远距离:更平滑
  • 近距离:更清晰
  • 整体:无锯齿

训练参数详解

关键超参数
参数 说明 典型值 影响
iterations 训练迭代次数 30000 越多质量越好,但时间更长
position_lr_init 位置学习率 0.00016 控制位置更新速度
position_lr_final 最终位置学习率 0.0000016 训练后期更精细调整
position_lr_delay_mult 位置学习率延迟 0.01 延迟位置更新
densification_interval 密度控制间隔 100 每N次迭代执行密度控制
opacity_reset_interval 不透明度重置间隔 3000 定期重置不透明度
densify_from_iter 开始密度控制 500 前N次迭代不执行
densify_until_iter 停止密度控制 15000 后期不再增加点
densify_grad_threshold 梯度阈值 0.0002 超过此值触发克隆
min_opacity 最小不透明度 0.005 低于此值被剪枝
优化策略

学习率调度

复制代码
位置学习率:从高到低,快速定位后精细调整
颜色学习率:相对稳定,保持颜色一致性
不透明度学习率:中等,平衡可见性

密度控制策略

复制代码
早期(0-5000次):快速增加点,建立基础结构
中期(5000-15000次):精细调整,优化细节
后期(15000-30000次):仅优化参数,不再增加点

Windows开源工具清单

核心工具对比

工具 开发者 特点 适用场景 难度
gsplat UC Berkeley PyTorch+CUDA,Windows预编译包 研究、原型开发 中等
gaussian-splatting Inria 官方实现,完整pipeline 从零学习、全流程 较高
Mesh2Splat EA SEED 网格→3DGS转换,<0.5ms 已有网格资产 中等
SIBR查看器 Rutgers & NTHU Windows查看器,VR支持 可视化、演示
Nerfstudio - 集成gsplat,Splatfacto工作流 快速上手 中等

详细工具介绍

1. gsplat(UC Berkeley)

特点

  • 基于 PyTorch + CUDA 的高效3DGS库
  • 支持密集化策略、姿态优化、深度渲染
  • 支持抗锯齿(Mip-Splatting)
  • 提供 Windows预编译包
  • 适配 NerfstudioSplatfacto 工作流

优势

  • 训练与可视化一体化体验友好
  • 适合做研究与原型开发
  • 社区活跃,文档完善

安装

bash 复制代码
# 安装gsplat
pip install gsplat

# 或通过Nerfstudio安装
pip install nerfstudio

详细安装步骤

bash 复制代码
# 1. 创建conda环境
conda create -n gsplat python=3.10
conda activate gsplat

# 2. 安装PyTorch(CUDA 11.8)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

# 3. 安装gsplat
pip install gsplat

# 4. 验证安装
python -c "import gsplat; print('gsplat安装成功')"

GitHub仓库https://github.com/nerfstudio-project/gsplat

文档https://gsplat.readthedocs.io/

2. gaussian-splatting(Inria官方实现)

特点

  • 包含完整的训练pipeline
  • 集成COLMAP数据准备
  • 包含SIBR查看器
  • 社区教程丰富

优势

  • 适合从零跑通数据→训练→渲染全流程
  • 深入理解3DGS细节

注意

  • Windows下需要本地编译部分C++/CUDA扩展
  • 需要Visual Studio C++桌面开发工作负载

详细安装步骤

bash 复制代码
# 1. 克隆仓库
git clone https://github.com/graphdeco-inria/gaussian-splatting --recursive
cd gaussian-splatting

# 2. 安装依赖
pip install torch torchvision

# 3. 编译CUDA扩展(Windows)
# 需要Visual Studio和CUDA Toolkit
# 在submodules/diff-gaussian-rasterization和submodules/simple-knn中编译

# 4. 安装COLMAP(用于数据准备)
# 下载Windows版本:https://colmap.github.io/

# 5. 运行训练
python train.py -s {数据目录}

GitHub仓库https://github.com/graphdeco-inria/gaussian-splatting

编译注意事项

  • 确保Visual Studio安装了C++桌面开发工作负载
  • CUDA版本需与PyTorch匹配
  • 如遇到glm缺失,运行:git submodule update --init --recursive
3. Mesh2Splat(EA SEED)

特点

  • 面向资产的网格→3DGS直接转换工具
  • 基于GPU光栅化与着色器
  • 平均 <0.5ms 完成转换

依赖

  • CMake 3.21.1+
  • Visual Studio 2019/2022
  • OpenGL GPU

适用

  • 已有GLB/三角形网格的快速3DGS化
  • 游戏资产/设计模型的转换
4. SIBR高斯查看器

特点

  • 基于SIBR的Windows查看器
  • 支持桌面/VR(OpenXR)6-DoF导航
  • 可记录/回放头显位姿与眼动轨迹

适用

  • 评估与演示3DGS场景
  • VR体验与数据分析

手机拍摄到3DGS重建方案

方案一:最简路径 - Remy(HarmonyOS 6)

适用人群:使用华为/鸿蒙6设备,追求最快上手与手机端完成

核心特点

  • 基于3D高斯泼溅
  • 手机环绕拍摄一段视频即可
  • 生成可在图库直接查看的 Interactive Photo
  • 平均 约5分钟 完成重建
  • 支持 360°查看与缩放
  • 通过系统分享面板/"碰一碰"分享

拍摄要点

  • 提供轨迹球覆盖引导
  • 云端重建同时可先看点云预览
  • 整体体验连贯

适用场景

  • 日常记录
  • 空间布置
  • 重要场景留存

方案二:零门槛云端方案 - Luma AI

适用人群:任意智能手机用户,希望无需复杂设置、云端处理、快速出结果

核心特点

  • 支持 视频或照片 上传
  • 云端完成高斯泼溅重建
  • 典型处理时长 约5-15分钟
  • 生成结果可网页链接分享
  • 可录屏/导出
  • 对小白友好、上手快

拍摄建议

  • 围绕目标 缓慢绕行
  • 尽量保持 高重叠稳定
  • 避免 强反光/玻璃快速运动 物体
  • 能显著提升完整度与清晰度

平台支持

  • iOS
  • Android
  • Web

方案三:进阶可控方案 - 手机拍摄 + COLMAP + 3DGUT

适用人群:希望全流程可控、后续用于机器人仿真/科研或深度定制

核心流程

复制代码
手机拍摄
    ↓
┌─────────────────────────────────┐
│ 1. 拍摄规范                      │
│ - SfM最佳实践                    │
│ - 相邻照片重叠≥60%               │
│ - 锁定AE/AF                      │
│ - 避免焦距/白平衡变化            │
│ - 室内快门≥1/100s                │
│ - 使用JPEG格式(非HEIC)          │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 2. 稀疏重建(COLMAP)            │
│ - 特征提取/匹配                  │
│ - 稀疏重建                       │
│ - GUI或命令行均可                │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 3. 密集重建(3DGUT)            │
│ - 训练3DGS模型                  │
│ - 导出USD/USDZ                  │
│ - 用于后续使用                   │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 4. 仿真部署(可选)              │
│ - NVIDIA Isaac Sim 5.0+          │
│ - 导入USDZ                       │
│ - 添加物理地面/阴影代理           │
│ - 放入机器人进行仿真             │
└─────────────────────────────────┘

优势

  • 质量与可控性最佳
  • 适合科研与产品化

要求

  • 需要电脑
  • 对硬件与操作有一定要求

电脑本地处理方案

方案一:开箱即用的桌面应用

DJI大疆智图(Windows)

特点

  • 支持3D高斯泼溅重建
  • 适合航测/大场景

系统要求

  • Windows 10+
  • NVIDIA显卡
  • 最低配置:32GB内存 + 4GB显存(计算能力≥6.1)
  • 推荐配置:64GB内存 + RTX 2070及以上

许可证

  • 提供在线/离线许可证
  • 离线版可无网使用付费功能
  • 仅适配NVIDIA显卡
  • 不兼容AMD/国产显卡与macOS/国产化系统

注意:商业软件,需要付费授权

方案二:开源一键式图形化工具

Meshroom(Windows/macOS/Linux)

特点

  • 节点式管线,零代码上手
  • 内置 mrGSplat插件 可直接做3D高斯泼溅重建
  • 也支持常规SfM/稠密重建与AI分割/深度等功能

优势

  • 适合不想写命令、希望快速得到可视化结果的用户
  • 图形化界面友好
  • 全流程本地处理

使用流程

  1. 导入手机拍摄的照片(建议多角度、高重叠)
  2. 在模板或节点图中启用mrGSplat节点并运行
  3. 输出.ply/.splat并在查看器中预览/分享

方案三:研究级框架与可定制方案

gsplat + Nerfstudio(Windows/Linux)

特点

  • 基于PyTorch + CUDA的高效3DGS库
  • 生态完善

示例流程

bash 复制代码
# 1. 创建环境(建议Python 3.10)
conda create -n nerfstudio python=3.10
conda activate nerfstudio

# 2. 安装gsplat与对应CUDA版本的PyTorch
pip install gsplat
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118

# 3. 用ns-process-data调用COLMAP生成位姿
ns-process-data images --data {IMAGE_DIR} --output-dir {PROCESSED_DATA_DIR}

# 4. 用ns-train splatfacto训练
ns-train splatfacto --data {PROCESSED_DATA_DIR}

# 5. 用ns-viewer交互预览
ns-viewer

完整示例

bash 复制代码
# 假设照片在 D:/photos/room 目录下

# 步骤1:数据预处理
ns-process-data images \
    --data D:/photos/room \
    --output-dir D:/photos/room_processed

# 步骤2:开始训练
ns-train splatfacto \
    --data D:/photos/room_processed \
    --experiment-name room_reconstruction \
    --viewer.quit-on-train-completion True

# 步骤3:查看结果
# 训练完成后会自动打开查看器
# 或手动打开:
ns-viewer --load-config outputs/room_reconstruction/splatfacto/...

训练参数自定义

bash 复制代码
ns-train splatfacto \
    --data {PROCESSED_DATA_DIR} \
    --pipeline.model.max-sh-degree 3 \
    --pipeline.model.num-random 50000 \
    --optimizers.position.optimizer.lr 0.00016 \
    --max-num-iterations 30000

优势

  • 适合需要可复现实验、调参与二次开发的人群
  • 支持姿态优化、抗锯齿等特性
GauStudio(Windows/Linux)

特点

  • 模块化框架
  • 内置多种渲染器(如gsplat_renderer/mip_renderer)
  • 支持从点云/COLMAP初始化并进行3DGS训练与渲染
  • 提供gs-extract-mesh等工具做网格提取与后处理

优势

  • 便于与现有三维流程对接
  • 适合做研究或导出网格等工作流衔接

方案四:从零编译的原始实现

gaussian-splatting官方实现(Windows)

特点

  • 包含训练、评估与SIBR高斯查看器

Windows编译要点

  1. 安装Visual Studio(C++桌面开发)
  2. 安装CUDA Toolkit
  3. 在子模块中编译diff-gaussian-rasterization与simple-knn
  4. 训练完用SIBR_gaussianViewer_app查看

详细编译步骤

bash 复制代码
# 1. 克隆仓库
git clone https://github.com/graphdeco-inria/gaussian-splatting --recursive
cd gaussian-splatting

# 2. 安装Python依赖
pip install torch torchvision tqdm plyfile

# 3. 编译diff-gaussian-rasterization
cd submodules/diff-gaussian-rasterization
python setup.py install

# 4. 编译simple-knn
cd ../simple-knn
python setup.py install

# 5. 返回主目录
cd ../..

# 6. 准备数据(需要COLMAP输出)
# 目录结构:
# data/
#   ├── images/
#   ├── sparse/0/
#   │   ├── cameras.bin
#   │   ├── images.bin
#   │   └── points3D.bin

# 7. 运行训练
python train.py -s data -m output

训练命令详解

bash 复制代码
python train.py \
    -s {数据目录} \              # 输入数据路径
    -m {输出目录} \              # 模型输出路径
    --iterations 30000 \         # 训练迭代次数
    --test_iterations 7000 \    # 测试间隔
    --save_iterations 7000 \    # 保存间隔
    --eval                        # 评估模式

优势

  • 适合希望深入理解3DGS细节与流程的用户
  • 完整的学习资源
  • 可以自定义训练流程

免费软件推荐

完全免费的本地开源工具

工具 类型 特点 平台 GitHub/官网
gsplat 训练库 PyTorch+CUDA,Windows预编译包 Windows/Linux https://github.com/nerfstudio-project/gsplat
COLMAP SfM工具 免费开源SfM/MVS管线 Windows/macOS/Linux https://colmap.github.io/
SuperSplat 查看器 基于Web的免费开源3DGS显示与编辑工具 Web https://github.com/antimatter15/supersplat
GaussianSplats3D 渲染器 基于Three.js的开源渲染器 Web https://github.com/mkkellogg/GaussianSplats3D
Blender插件3DGS Render 插件 在Blender中可视化与操作3DGS Windows/macOS/Linux Blender插件市场
Meshroom 图形化工具 节点式管线,mrGSplat插件 Windows/macOS/Linux https://alicevision.org/

工具详细功能对比

功能 gsplat gaussian-splatting Meshroom Nerfstudio
训练3DGS ✅(插件)
数据准备 ✅(集成) ✅(COLMAP)
可视化 ✅(ns-viewer) ✅(SIBR)
参数调优 ⚠️(有限)
网格导出 ⚠️(需插件) ⚠️(需插件)
Web导出 ⚠️ ⚠️
图形界面 ⚠️(部分)
命令行 ⚠️
文档完善度 ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐ ⭐⭐⭐⭐
社区活跃度 ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐ ⭐⭐⭐⭐

COLMAP安装与使用

Windows安装COLMAP

方法一:官方预编译版本

  1. 访问 https://colmap.github.io/
  2. 下载Windows版本
  3. 解压到任意目录
  4. 运行COLMAP.exe

方法二:通过conda安装

bash 复制代码
conda install -c conda-forge colmap
COLMAP基本使用

GUI方式

复制代码
1. 打开COLMAP GUI
2. File → New Project
3. 选择图像文件夹
4. Reconstruction → Automatic reconstruction
5. 等待完成

命令行方式

bash 复制代码
# 特征提取
colmap feature_extractor --database_path database.db --image_path images/

# 特征匹配
colmap exhaustive_matcher --database_path database.db

# 稀疏重建
colmap mapper --database_path database.db --image_path images/ --output_path sparse/

输出文件

  • cameras.txt:相机内参
  • images.txt:图像和相机位姿
  • points3D.txt:稀疏点云

零成本上手流程(手机照片 → 3DGS)

复制代码
步骤1:拍摄规范
┌─────────────────────────────────┐
│ - 围绕目标缓慢绕行               │
│ - 相邻照片重叠≥60%               │
│ - 固定焦距/白平衡                │
│ - 避免强反光与快速运动           │
│ - 室内快门≥1/100s减少模糊        │
└─────────────────────────────────┘
    ↓
步骤2:稀疏重建(COLMAP)
┌─────────────────────────────────┐
│ - 特征提取、匹配与稀疏重建        │
│ - GUI"Automatic reconstruction"  │
│ - 或命令行均可                   │
└─────────────────────────────────┘
    ↓
步骤3:高斯训练(gsplat)
┌─────────────────────────────────┐
│ - 安装gsplat                     │
│ - 将COLMAP结果转换为3DGS训练数据 │
│ - 开始训练                       │
│ - 可启用姿态优化、抗锯齿等特性    │
└─────────────────────────────────┘
    ↓
步骤4:可视化与裁剪
┌─────────────────────────────────┐
│ - 训练得到的PLY可用SuperSplat   │
│   快速在线查看与裁剪             │
│ - 或在Blender + 3DGS Render      │
│   做进一步布置与渲染             │
└─────────────────────────────────┘

Meshroom使用指南

Meshroom简介

Meshroom 是基于AliceVision的节点式管线工具,提供Windows/macOS/Linux预编译包,支持3DGS重建。

两种典型用法

用法一:仅用Meshroom

流程

  1. 安装/更新到带 mrGSplat 的版本
  2. 导入手机拍摄的照片(建议多角度、高重叠)
  3. 在模板或节点图中启用 mrGSplat节点 并运行
  4. 输出 .ply/.splat 并在查看器中预览/分享

优势

  • 最省事,适合快速体验与教学演示
  • 零代码,图形化操作
用法二:Meshroom + COLMAP + 3DGS训练(更可控)

流程

  1. COLMAP 做SfM稀疏重建并导出相机位姿
    • 注意选择 SIMPLE_PINHOLE 等3DGS友好模型
    • 可关闭dense以节省时间
  2. 用社区版 3DGS训练脚本 (如gaussian-splatting官方实现)读取COLMAP结果进行训练
    • 得到 .ply/.splat
  3. 需要网格时再用Meshroom的 Meshing/Texturing 节点从稠密结果生成 OBJ/MTL/纹理 用于工程对接

优势

  • 对参数与质量更可控
  • 适合科研与产品化前处理

效果与局限

3DGS特点

  • 以显式高斯点云表示场景
  • 支持高效光栅化渲染与新视角合成
  • 训练通常可在 数十分钟 内完成
  • 在消费级GPU上实现 实时(≥30fps,1080p) 预览
  • 与传统NeRF相比,速度与可编辑性更优

适用场景

  • 需要快速迭代与交互展示的应用
  • 小中尺度场景的高斯重建

推荐工作流程

路线A:纯Meshroom工作流

适用:先有模型、再决定是否转高斯

流程

复制代码
手机照片
    ↓
Meshroom (SfM/MVS)
    ↓
带纹理的OBJ/GLB网格
    ↓
展示、测量或后续加工

优势

  • 零成本
  • 节点式可视化
  • 全流程本地

注意

  • Meshroom默认输出的是网格(Mesh),不是原生3DGS(.ply/.splat)

路线B:网格转3DGS

适用:最终想要3D高斯泼溅效果

流程

复制代码
手机照片
    ↓
Meshroom (得到OBJ/PLY)
    ↓
gaussian-splatting官方实现或gsplat训练
    ↓
.ply/.splat
    ↓
SIBR高斯查看器或SuperSplat预览/分享

优势

  • 质量与可控性强
  • 支持实时渲染

要求

  • 需要NVIDIA CUDA GPU
  • 建议显存≥8GB

原生3DGS训练(推荐)

流程

复制代码
手机照片
    ↓
COLMAP (稀疏重建,导出位姿)
    ↓
整理到同一目录(cameras.txt + 图像)
    ↓
gaussian-splatting官方实现或gsplat训练
    ↓
.ply/.splat
    ↓
启用姿态优化、抗锯齿(Mip-Splatting)等

优势

  • 质量最佳
  • 可控性强
  • 支持高级特性

拍摄规范与技巧

路径规划

环绕拍摄

  • 围绕目标做环绕拍摄
  • 相邻照片 重叠60%-80%
  • 尽量形成 闭环
  • 多角度/多高度(俯视/平视/仰视)覆盖细节与盲区

拍摄路径示意图

复制代码
俯视图:
        ┌─────────┐
        │  目标   │
        └─────────┘
           ↙  ↘
    相机路径(闭环)
        ↖  ↗

侧视图:
    高角度 ────┐
              │
    平视角度 ──┼── 目标
              │
    低角度 ────┘

拍摄角度覆盖

复制代码
┌─────────────────────────────────┐
│ 水平角度:360°覆盖               │
│ - 每30°一张(12张)              │
│ - 或每15°一张(24张)            │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 垂直角度:多高度                 │
│ - 俯视:45°(顶部细节)          │
│ - 平视:0°(主体)               │
│ - 仰视:-30°(底部细节)         │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ 距离变化:多尺度                 │
│ - 远景:整体结构                 │
│ - 中景:主要细节                 │
│ - 近景:局部特写                 │
└─────────────────────────────────┘

光照与材质

光照要求

  • 保持 光线均匀
  • 避免 强反光/玻璃/纯色无纹理
  • 室内尽量用 柔光
  • 室外选 阴天/柔和时段

材质注意

  • 避免强反光表面
  • 避免透明/半透明物体
  • 避免纯色无纹理区域

相机设置

固定参数

  • 固定 焦距/白平衡/曝光
  • 使用 三脚架/稳定器
  • 优先 高快门 减少模糊

格式建议

  • 手机默认HEIC建议改为 JPEG 提升兼容性
  • 室内快门 ≥1/100s

数量建议

场景类型 照片数量 说明
小物体 20-50张 保证充足覆盖
室内场景 50-100张 保证纹理信息
大场景 100+张 多角度覆盖

提高成功率的三件事

  1. 充足光照与稳定

    • 必要时靠墙/三脚架
    • 维持高重叠率(建议≥60%)
  2. 避免问题区域

    • 避免玻璃/镜面/强反光
    • 避免纯色无纹理墙面
  3. 拍摄路径优化

    • 尽量闭环
    • 覆盖高低角度
    • 匀速移动,避免大幅抖动与快速旋转

效果优化小技巧

  • 室内:尽量提高快门速度(如≥1/100s)以减少运动模糊
  • 手动模式:如设备支持,可固定焦距/白平衡
  • 补拍特写:对孔洞/通道区域补拍特写,可明显减少破洞与缺失

拍摄质量检查清单

拍摄前检查

  • 相机电量充足
  • 存储空间足够
  • 相机设置正确(JPEG格式、固定参数)
  • 光照条件良好

拍摄中注意

  • 保持稳定移动
  • 维持高重叠率
  • 覆盖所有角度
  • 避免快速运动物体

拍摄后验证

  • 照片数量足够(≥30张)
  • 照片清晰无模糊
  • 覆盖角度完整
  • 无明显缺失区域

不同场景的拍摄策略

小物体拍摄(如手办、产品)
复制代码
拍摄路径:
┌─────────────────────────────────┐
│ 1. 水平环绕(3-4圈)             │
│    - 每圈12-16张                 │
│    - 不同高度(3-4层)           │
│                                 │
│ 2. 顶部俯拍(5-10张)            │
│    - 不同角度                     │
│                                 │
│ 3. 底部仰拍(5-10张)            │
│    - 不同角度                     │
│                                 │
│ 总计:50-80张                    │
└─────────────────────────────────┘
室内场景拍摄(如房间)
复制代码
拍摄路径:
┌─────────────────────────────────┐
│ 1. 房间中心环绕(2-3圈)         │
│    - 每圈20-30张                 │
│    - 不同高度                     │
│                                 │
│ 2. 角落特写(每个角落5-10张)     │
│    - 覆盖盲区                     │
│                                 │
│ 3. 细节补拍(10-20张)           │
│    - 重要区域特写                 │
│                                 │
│ 总计:80-150张                   │
└─────────────────────────────────┘
室外场景拍摄(如建筑)
复制代码
拍摄路径:
┌─────────────────────────────────┐
│ 1. 外围环绕(2-3圈)             │
│    - 每圈30-50张                 │
│    - 不同距离                     │
│                                 │
│ 2. 正面多角度(20-30张)         │
│    - 不同高度和距离               │
│                                 │
│ 3. 细节特写(20-30张)           │
│    - 门窗、装饰等                 │
│                                 │
│ 总计:100-200张                  │
└─────────────────────────────────┘

训练参数调优指南

参数调优策略

场景类型与参数建议
场景类型 迭代次数 密度控制 学习率 说明
小物体 20000-30000 标准 标准 细节丰富,需要更多迭代
室内场景 30000-50000 增强 稍低 复杂几何,需要更多点
室外大场景 50000-100000 标准 标准 范围大,需要更多迭代
简单场景 10000-20000 减少 稍高 快速收敛
质量 vs 速度权衡

追求质量

python 复制代码
iterations = 50000
densification_interval = 100
densify_until_iter = 20000
position_lr_init = 0.00016

追求速度

python 复制代码
iterations = 20000
densification_interval = 200
densify_until_iter = 10000
position_lr_init = 0.00032  # 更高学习率
常见问题与参数调整

问题1:训练后出现空洞

解决方案

  • 增加 densify_until_iter(如15000→20000)
  • 降低 densify_grad_threshold(如0.0002→0.0001)
  • 增加 densification_interval频率

问题2:训练时间过长

解决方案

  • 减少 iterations
  • 增加 densification_interval(减少密度控制频率)
  • 提前 densify_until_iter(更早停止增加点)

问题3:显存不足

解决方案

  • 降低图像分辨率
  • 减少初始高斯点数量
  • 使用梯度累积
  • 启用混合精度训练

高级优化技巧

1. 多阶段训练
复制代码
阶段1:快速定位(0-5000次)
- 高学习率
- 快速建立基础结构

阶段2:精细优化(5000-20000次)
- 中等学习率
- 密度控制活跃

阶段3:最终优化(20000-30000次)
- 低学习率
- 仅参数优化
2. 正则化技术

位置正则化

  • 防止高斯点过度分散
  • 保持场景紧凑

不透明度正则化

  • 鼓励稀疏表示
  • 减少不必要的点
3. 数据增强

适用场景:数据量不足时

方法

  • 随机裁剪
  • 颜色抖动
  • 轻微旋转

注意:3DGS对数据质量要求高,增强需谨慎


文件格式与数据交换

3DGS文件格式

PLY格式(最常用)

结构

复制代码
PLY
format binary_little_endian 1.0
element vertex {N}
property float x
property float y
property float z
property float nx
property float ny
property float nz
property uchar red
property uchar green
property uchar blue
property uchar alpha
property float f_dc_0
property float f_dc_1
property float f_dc_2
property float f_rest_0
...
property float scale_0
property float scale_1
property float scale_2
property float rot_0
property float rot_1
property float rot_2
property float rot_3
end_header
{二进制数据}

字段说明

字段 说明 类型
x, y, z 位置坐标 float
nx, ny, nz 法向量(可选) float
red, green, blue, alpha 颜色和不透明度 uchar
f_dc_0/1/2 球谐函数DC项 float
f_rest_* 球谐函数高阶项 float
scale_0/1/2 协方差矩阵缩放 float
rot_0/1/2/3 四元数旋转 float
SPLAT格式

特点

  • 压缩格式
  • 文件更小
  • 加载更快

适用

  • 网页展示
  • 移动设备
  • 快速预览
KSPLAT格式

特点

  • 量化压缩
  • 极小的文件大小
  • 适合实时传输

格式转换工具

工具 输入格式 输出格式 说明
官方转换脚本 COLMAP PLY 标准转换
gsplat PLY SPLAT 格式转换
SuperSplat PLY Web格式 网页优化
Mesh2Splat OBJ/PLY PLY 网格转高斯

数据交换流程

复制代码
COLMAP输出
    ↓
┌─────────────────────────────────┐
│ cameras.txt                     │
│ - 相机内参和外参                 │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ images.txt                      │
│ - 图像文件名和对应相机            │
└─────────────────────────────────┘
    ↓
┌─────────────────────────────────┐
│ points3D.txt                    │
│ - 稀疏点云(用于初始化)          │
└─────────────────────────────────┘
    ↓
3DGS训练
    ↓
┌─────────────────────────────────┐
│ point_cloud.ply                 │
│ - 训练后的高斯点云                │
└─────────────────────────────────┘
    ↓
格式转换(可选)
    ↓
┌─────────────────────────────────┐
│ .splat / .ksplat                │
│ - 压缩格式,用于分享              │
└─────────────────────────────────┘

与其他格式的互操作

导出为网格(Mesh)

工具

  • gs-extract-mesh(GauStudio)
  • Marching Cubes算法
  • Poisson重建

流程

复制代码
PLY高斯点云
    ↓
提取不透明度高的点
    ↓
生成等值面
    ↓
OBJ/PLY网格

注意

  • 网格会丢失部分细节
  • 适合工程应用
  • 不适合新视角合成
导入到其他软件
软件 支持格式 插件/工具
Blender PLY 3DGS Render插件
Unity PLY 自定义导入器
Unreal Engine PLY 插件开发中
Three.js PLY/SPLAT GaussianSplats3D
WebXR SPLAT 浏览器原生支持

环境配置与常见问题

硬件要求

必需硬件
硬件 要求 说明
GPU NVIDIA GPU(支持CUDA) 大多数工具依赖CUDA
显存 建议≥8GB 训练需要足够显存
内存 建议≥16GB 处理大场景需要
存储 足够空间 存储照片和模型
驱动与软件
  • 显卡驱动:安装匹配的NVIDIA显卡驱动
  • CUDA Toolkit:建议CUDA 11.8
  • Python:建议Python 3.10.x
  • PyTorch:与CUDA版本匹配

验证安装

python 复制代码
python -c "import torch; print(torch.__version__, torch.version.cuda, torch.cuda.is_available())"

编译依赖

Windows编译要求

  • Visual Studio:C++桌面开发工作负载
  • CMake:3.21.1+(如使用Mesh2Splat)
  • CUDA Toolkit:匹配PyTorch版本

常见编译问题

  • 子模块glm缺失:手动补齐或更新子模块后重试
  • 编译报错:检查Visual Studio和CUDA安装

常见问题与解决方案

1. 效果差/破洞多

原因

  • 照片重叠率不足
  • 光照不一致
  • 缺少特写照片

解决方案

  • 补拍特写与遮挡区域
  • 提高重叠率与光照一致性
  • 避免移动物体与强反光
2. 速度慢/显存不足

原因

  • 图像分辨率过高
  • 显存不足
  • 未启用GPU加速

解决方案

  • 减少图像分辨率或分批处理
  • 关闭不必要的节点
  • 确保启用GPU/CUDA加速
  • 必要时升级显卡(建议≥8GB显存)
3. 无NVIDIA显卡

限制

  • 仍可完成SfM/MVS与网格重建
  • 可在Meshroom/Blender中可视化
  • 但3DGS训练通常需要NVIDIA CUDA GPU

替代方案

  • 使用云端服务(如Luma AI)
  • 仅做可视化(如SuperSplat)
4. 成果分享

格式选择

  • 小场景:优先导出GLB/OBJ用于网页/工程对接
  • 网页交互:导出.ply/.splat并用SuperSplat在线分享
  • 高斯点云效果:使用.ply/.splat格式
5. COLMAP重建失败

原因

  • 照片重叠率不足
  • 特征点太少
  • 相机参数估计失败

解决方案

  • 增加照片数量(建议≥30张)
  • 提高重叠率(≥70%)
  • 使用COLMAP GUI手动调整
  • 检查照片质量(清晰度、光照)
6. 训练不收敛

原因

  • 学习率设置不当
  • 数据质量差
  • 相机位姿不准确

解决方案

  • 调整学习率(降低或提高)
  • 检查COLMAP重建质量
  • 使用预训练权重初始化
  • 增加训练迭代次数
7. 渲染出现伪影

原因

  • 高斯点分布不均匀
  • 不透明度设置不当
  • 协方差矩阵异常

解决方案

  • 调整密度控制参数
  • 检查不透明度阈值
  • 使用Mip-Splatting抗锯齿
  • 后处理去噪

性能对比与基准测试

训练性能对比

不同GPU的训练时间
GPU型号 显存 小场景(20张) 中场景(50张) 大场景(100张)
RTX 3060 12GB 15-20分钟 30-40分钟 60-90分钟
RTX 3070 8GB 12-18分钟 25-35分钟 50-80分钟
RTX 3080 10GB 10-15分钟 20-30分钟 40-70分钟
RTX 3090 24GB 8-12分钟 15-25分钟 30-60分钟
RTX 4090 24GB 5-10分钟 10-20分钟 20-40分钟

注意:实际时间取决于场景复杂度、图像分辨率、迭代次数等

渲染性能对比
分辨率 RTX 3060 RTX 3080 RTX 4090
720p 60+ fps 60+ fps 60+ fps
1080p 45-60 fps 60+ fps 60+ fps
1440p 30-45 fps 50-60 fps 60+ fps
4K 15-25 fps 30-45 fps 50-60 fps

存储空间对比

场景类型 高斯点数 PLY文件大小 SPLAT文件大小 压缩比
小物体 10万-50万 50-200 MB 10-40 MB 5:1
室内场景 50万-200万 200-800 MB 40-160 MB 5:1
室外场景 200万-1000万 800 MB-4 GB 160 MB-800 MB 5:1

质量评估指标

PSNR(峰值信噪比)

定义:衡量重建图像与真实图像的差异

典型值

  • 优秀:PSNR > 30 dB
  • 良好:PSNR 25-30 dB
  • 一般:PSNR 20-25 dB
SSIM(结构相似性)

定义:衡量图像结构相似性

典型值

  • 优秀:SSIM > 0.95
  • 良好:SSIM 0.90-0.95
  • 一般:SSIM 0.85-0.90
LPIPS(感知损失)

定义:基于深度学习的感知相似性

典型值

  • 优秀:LPIPS < 0.05
  • 良好:LPIPS 0.05-0.10
  • 一般:LPIPS 0.10-0.15

与NeRF性能对比

指标 3DGS NeRF 优势方
训练时间 20-60分钟 数小时到数天 3DGS
渲染速度 实时(30-60fps) 慢(秒级) 3DGS
PSNR 28-32 dB 30-35 dB NeRF
SSIM 0.90-0.95 0.92-0.97 NeRF
可编辑性 3DGS
存储大小 中等 NeRF

优化建议

提升训练速度

  • 使用更快的GPU
  • 减少迭代次数
  • 降低图像分辨率
  • 使用混合精度训练

提升渲染质量

  • 增加训练迭代次数
  • 使用Mip-Splatting
  • 优化密度控制参数
  • 提高图像分辨率

平衡质量与速度

  • 使用自适应密度控制
  • 多阶段训练策略
  • 根据场景调整参数

总结

快速选择建议

需求 推荐方案 工具
装好就能跑、尽量少配置 Meshroom(有mrGSplat插件) Meshroom
NVIDIA显卡、追求效率与可复现 gsplat + Nerfstudio gsplat, Nerfstudio
模块化、做研究或导出网格 GauStudio GauStudio
有DJI无人机数据或偏好商业软件 大疆智图 DJI智图(需付费)
深入学习或定制渲染/训练细节 官方实现 + SIBR查看器 gaussian-splatting

核心工作流程

复制代码
拍摄规范
    ↓
COLMAP稀疏重建
    ↓
3DGS训练(gsplat/gaussian-splatting)
    ↓
可视化与分享(SIBR/SuperSplat)

技术发展趋势

当前发展方向

  • 动态场景:支持动态物体和时序重建
  • 大场景优化:处理更大规模的场景
  • 实时编辑:交互式编辑高斯点
  • 压缩技术:更高效的存储和传输
  • 移动端部署:在移动设备上运行

未来展望

  • 更快的训练速度
  • 更高的渲染质量
  • 更好的可编辑性
  • 更广泛的应用场景

关键要点

  1. 拍摄质量:高重叠率、充足光照、稳定拍摄
  2. 硬件要求:NVIDIA GPU + CUDA(训练必需)
  3. 工具选择:根据需求选择合适工具
  4. 格式转换:PLY是最通用的3DGS成果格式

学习路径

初学者

  1. 使用Meshroom快速体验
  2. 学习拍摄规范
  3. 尝试gsplat + Nerfstudio

进阶用户

  1. 深入理解COLMAP流程
  2. 使用官方实现进行训练
  3. 自定义参数优化效果

研究用户

  1. 研究3DGS原理
  2. 开发自定义工具
  3. 优化训练流程

实际应用案例

案例1:产品展示网站

需求:为电商网站创建产品的3D展示

方案

  1. 使用手机拍摄产品照片(50-80张)
  2. COLMAP稀疏重建
  3. gsplat训练3DGS模型
  4. 导出PLY格式
  5. 使用SuperSplat嵌入网页

效果

  • 用户可以在网页中360°查看产品
  • 支持缩放和旋转
  • 加载速度快,体验流畅
案例2:室内设计可视化

需求:为客户展示设计方案

方案

  1. 拍摄设计方案照片(100-150张)
  2. Meshroom生成初始模型
  3. 转换为3DGS格式
  4. 在VR中展示

效果

  • 沉浸式体验
  • 实时交互
  • 细节丰富
案例3:文化遗产数字化

需求:数字化保存文物

方案

  1. 专业相机多角度拍摄(200+张)
  2. 高精度COLMAP重建
  3. 长时间训练优化质量
  4. 导出高质量PLY

效果

  • 高保真度重建
  • 永久保存
  • 可在线浏览

最佳实践总结

拍摄阶段

DO(推荐)

  • ✅ 使用三脚架或稳定器
  • ✅ 固定相机参数
  • ✅ 保持高重叠率
  • ✅ 多角度覆盖
  • ✅ 充足光照

DON'T(避免)

  • ❌ 快速移动相机
  • ❌ 改变焦距或白平衡
  • ❌ 在强反光表面拍摄
  • ❌ 照片数量不足
  • ❌ 光照条件差
训练阶段

DO(推荐)

  • ✅ 检查COLMAP重建质量
  • ✅ 根据场景调整参数
  • ✅ 监控训练过程
  • ✅ 使用合适的迭代次数
  • ✅ 保存中间结果

DON'T(避免)

  • ❌ 盲目使用默认参数
  • ❌ 训练时间过短
  • ❌ 忽略错误信息
  • ❌ 不备份数据
  • ❌ 显存不足时强行训练
优化阶段

DO(推荐)

  • ✅ 使用Mip-Splatting抗锯齿
  • ✅ 优化高斯点数量
  • ✅ 压缩文件大小
  • ✅ 测试不同查看器
  • ✅ 收集用户反馈

DON'T(避免)

  • ❌ 过度优化导致质量下降
  • ❌ 忽略文件大小
  • ❌ 不测试兼容性
  • ❌ 忽略性能问题

常见错误与解决方案速查表

错误现象 可能原因 解决方案
训练后出现大量空洞 照片重叠率不足 补拍照片,提高重叠率
渲染出现伪影 高斯点分布不均 调整密度控制参数
训练不收敛 学习率不当 降低学习率,检查数据质量
显存不足 图像分辨率过高 降低分辨率或使用梯度累积
COLMAP失败 特征点不足 增加照片数量,提高质量
渲染速度慢 高斯点过多 使用剪枝或降低分辨率
颜色不准确 白平衡变化 固定白平衡,统一光照
细节丢失 训练迭代不足 增加迭代次数

3DGS技术正在快速发展,选择合适的工具和流程,就能在Windows上轻松实现高质量的3D场景重建。通过不断实践和优化,您将能够掌握这项强大的3D重建技术。

相关推荐
CG_MAGIC2 小时前
效果图渲染小诀窍
3d·效果图·建模教程·渲云
大鹅同志3 小时前
Ubuntu 20.04使用MB-System分析与可视化EM3000数据
数据库·3d·ros·slam·mb-system
Agilex松灵机器人4 小时前
持续更新|第十七弹:用LIMO复现一篇IEEE论文
人工智能·ros·定位导航·模型·路径规划·ieee·rda
CG_MAGIC20 小时前
效果图云渲染平台如何选择?
3d·3dmax·建模教程·渲云渲染·渲云
安生爱学习❤21 小时前
(CVPR 2025) Birth and Death of a Rose 不靠 3D 数据,从 2D 扩散模型生成 4D 对象
3d
zstar-_1 天前
3DTiles的构建和加载方案
3d
memmolo1 天前
【3D传感技术系列博客】
算法·计算机视觉·3d
YAY_tyy1 天前
综合实战:基于 Turfjs 的智慧园区空间管理系统
前端·3d·cesium·turfjs
乐居生活官1 天前
CES消费电子热浪衔接Formnext制造浪潮:深圳3D打印展的全民创造进行时
3d·制造