用nnunetv2跑通WORD数据集 详细记录

1.下载 WORD 数据集

WORD 官方仓库在这里:https://github.com/HiLab-git/WORD

建议BaiduPan 下载。password for BaiduPan isABOD, and the WORD dataset unzip password is word@uest

2. 创建 conda 环境

java 复制代码
conda create -n nnunetv2 python=3.10 -y
conda activate nnunetv2

踩雷,NumPy 版本是 nnUNetv2容易踩坑的点。记得卸载numpy,然后换成numpy1.26.4

一句话解决(最稳)

java 复制代码
pip uninstall -y numpy
pip install "numpy==1.26.4"

2.1 安装 PyTorch

请各位根据自己的cuda版本安装pytorch。因为我的cuda版本是12.1,所以我安装:

java 复制代码
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

验证 GPU 可用:

java 复制代码
python -c "import torch; print('torch:', torch.__version__); print('cuda:', torch.cuda.is_available())"

安装 nnUNetv2

java 复制代码
pip install nnunetv2

3.配置 nnUNetv2 三个路径环境变量(关键)

nnUNet 需要 3 个环境变量:nnUNet_raw / nnUNet_preprocessed / nnUNet_results。官方文档明确要求这样设置。

以你实际路径为例(这里用的是 /workspace/nnUnetv2/):

python 复制代码
mkdir -p /workspace/nnUnetv2/nnUNet_raw
mkdir -p /workspace/nnUnetv2/nnUNet_preprocessed
mkdir -p /workspace/nnUnetv2/nnUNet_results

export nnUNet_raw="/workspace/nnUnetv2/nnUNet_raw"
export nnUNet_preprocessed="/workspace/nnUnetv2/nnUNet_preprocessed"
export nnUNet_results="/workspace/nnUnetv2/nnUNet_results"

验证:

python 复制代码
echo $nnUNet_raw
echo $nnUNet_preprocessed
echo $nnUNet_results

4.准备 WORD 数据为 nnUNet 格式

nnUNet 的数据格式规范见官方 dataset_format.md:核心是 imagesTr/labelsTr/imagesTs + dataset.json,并且图像文件名必须带通道后缀 _0000(单模态也要)。

4.1目录命名:必须是 DatasetXXX_NAME

nnUNetv2 要求 raw 数据集目录形如:nnUNet_raw/Dataset500_WORD/

python 复制代码
/workspace/nnUnetv2/nnUNet_raw/Dataset500_WORD/
├── dataset.json
├── imagesTr
│   ├── case_0001_0000.nii.gz
│   ├── case_0002_0000.nii.gz
│   └── ...
├── labelsTr
│   ├── case_0001.nii.gz
│   ├── case_0002.nii.gz
│   └── ...
└── imagesTs
    ├── case_0101_0000.nii.gz
    └── ...

4.2 统一给 imagesTr/imagesTs 加 _0000 后缀(单模态必做)

在数据集目录下执行:

python 复制代码
cd "$nnUNet_raw/Dataset500_WORD" || exit 1

# imagesTr:只给尚未带 _0000 的加后缀
for f in imagesTr/*.nii.gz; do
  b=$(basename "$f")
  [[ "$b" == *"_0000.nii.gz" ]] && continue
  base="${b%.nii.gz}"
  mv "$f" "imagesTr/${base}_0000.nii.gz"
done

# imagesTs:如果存在则同理
if ls imagesTs/*.nii.gz 1> /dev/null 2>&1; then
  for f in imagesTs/*.nii.gz; do
    b=$(basename "$f")
    [[ "$b" == *"_0000.nii.gz" ]] && continue
    base="${b%.nii.gz}"
    mv "$f" "imagesTs/${base}_0000.nii.gz"
  done
fi

4.3 修改dataset.json

将旧的/workspace/nnUnetv2/nnUNet_raw/Dataset500_WORD/dataset.json全部替换为:

python 复制代码
{
    "name": "WORD",
    "channel_names": {
        "0": "CT"
    },
    "labels": {
        "background": 0,
        "liver": 1,
        "spleen": 2,
        "left_kidney": 3,
        "right_kidney": 4,
        "stomach": 5,
        "gallbladder": 6,
        "esophagus": 7,
        "pancreas": 8,
        "duodenum": 9,
        "colon": 10,
        "intestine": 11,
        "adrenal": 12,
        "rectum": 13,
        "bladder": 14,
        "Head_of_femur_L": 15,
        "Head_of_femur_R": 16
    },
    "numTraining": 100,
    "file_ending": ".nii.gz"
}

5. 预处理(计划生成处理后图片)

执行 nnUNetv2_plan_and_preprocess -d 500 --verify_dataset_integrity

完成后你会在 nnUNet_preprocessed/Dataset500_WORD/ 看到诸如:

6. 训练(两种写法)

6.1 快速跑通(fold=all)

java 复制代码
nnUNetv2_train 500 3d_fullres all --npz

6.2 标准 5-fold(更规范,推理时默认可集成)

java 复制代码
for f in 0 1 2 3 4; do
  nnUNetv2_train 500 3d_fullres $f --npz
done

7 推理生成预测图(使用 checkpoint_best.pth)

python 复制代码
CUDA_VISIBLE_DEVICES=1 nnUNetv2_predict \
  -i "$nnUNet_raw/Dataset500_WORD/imagesTs" \
  -o "/workspace/nnUnetv2/WORD_pred_3d_fullres_best" # 没有这个文件夹会自动创建\
  -d 500 \
  -c 3d_fullres \
  -f all \
  -chk "/workspace/nnUnetv2/nnUNet_results/Dataset500_WORD/nnUNetTrainer__nnUNetPlans__3d_fullres/fold_all/checkpoint_best.pth"

友情提示:我处理好的数据在这里下载:通过网盘分享的文件:nnUNet_preprocessed.zip

链接: https://pan.baidu.com/s/1mCoFwj4w7ZvyR5KMgOX40w?pwd=uaj8 提取码: uaj8

--来自百度网盘超级会员v9的分享

将处理好的数据文件夹直接替换成/path/to/your/dir/nnUNet_preprocessed

相关推荐
AI 菌12 分钟前
DeepSeek-OCR 解读
人工智能·算法·计算机视觉·大模型·ocr
koo3641 小时前
pytorch深度学习笔记18
pytorch·笔记·深度学习
lixin5565561 小时前
基于神经网络的音乐生成增强器
java·人工智能·pytorch·python·深度学习·语言模型
爱吃肉的鹏2 小时前
树莓派上部署YOLOv5:从零实现实时目标检测
深度学习·yolo·树莓派
哥布林学者2 小时前
吴恩达深度学习课程五:自然语言处理 第二周:词嵌入(六)情绪分类和词嵌入除偏
深度学习·ai
菜鸟‍3 小时前
【论文学习】重新审视面向持续图像分割的基于查询的 Transformer || 用于二分类图像分割的多视图聚合网络
人工智能·学习·计算机视觉
AI街潜水的八角4 小时前
语义分割实战——基于EGEUNet神经网络印章分割系统3:含训练测试代码、数据集和GUI交互界面
人工智能·深度学习·神经网络
小慧10245 小时前
煤矿井下辅助运输电机车障碍物感知的多模态融合方法
深度学习
深度学习lover5 小时前
<项目代码>yolo毛毛虫识别<目标检测>
人工智能·python·yolo·目标检测·计算机视觉·毛毛虫识别
沃达德软件5 小时前
人脸比对技术助力破案
人工智能·深度学习·神经网络·目标检测·机器学习·生成对抗网络·计算机视觉