深度学习常用训练命令解释

深度学习项目的训练命令通常是是根据训练文件(train.py)设定来接收参数

举例参考

CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node 4 --master_port 12345 train.py --dataset rrsisd --model_id RMSIN --epochs 40 --img_size 480 2>&1 | tee ./output

命令解释

1.CUDA_VISIBLE_DEVICES=0,1,2,3:

  • 这个环境变量用于指定哪些 GPU 可用。在这里,设备 0 到 3 被设置为可用 GPU,这意味着你的程序将会使用这些 GPU 进行训练。

  • 单个GPU训练命令

python 复制代码
CUDA_VISIBLE_DEVICES=0 python train.py --dataset rrsisd --model_id RMSIN --epochs 40 --img_size 480 2>&1 | tee ./output
  1. python -m torch.distributed.launch:

    • 这是 PyTorch 的分布式训练模块。使用 -m 选项可以让 Python 作为模块运行,torch.distributed.launch 会负责启动多个进程。
  2. --nproc_per_node 4:

    • 指定每个节点(通常是每个机器)要启动的进程数。在这个例子中,指定为 4,这意味着会启动 4 个训练进程,分别使用前面指定的 4 个 GPU。
  3. --master_port 12345:

    • 这是用于进程间通信的主端口号。所有进程将通过这个端口进行通信。
  4. train.py:

    • 这是你的训练脚本文件,包含了模型训练的代码。
  5. --dataset rrsisd:

    • 指定要使用的数据集名称为 rrsisd。你需要确保在代码中相应地处理这个数据集。
  6. --model_id RMSIN:

    • 这是指定模型 ID 的参数。具体使用时需要在 train.py 中处理这个参数。
  7. --epochs 40:

    • 指定训练的轮数(epochs),在这个例子中为 40 轮。
  8. --img_size 480:

    • 指定输入图像的尺寸为 480(假设是正方形图像)。
  9. 2>&1 | tee ./output:

  • 2>&1 将标准错误输出(stderr)重定向到标准输出(stdout),确保所有输出都被捕获。
  • | tee ./output 将输出同时写入到 output 文件中,并在终端中显示。这样你可以在运行时查看日志,同时保留日志文件。
相关推荐
九.九5 小时前
ops-transformer:AI 处理器上的高性能 Transformer 算子库
人工智能·深度学习·transformer
春日见5 小时前
拉取与合并:如何让个人分支既包含你昨天的修改,也包含 develop 最新更新
大数据·人工智能·深度学习·elasticsearch·搜索引擎
恋猫de小郭5 小时前
AI 在提高你工作效率的同时,也一直在增加你的疲惫和焦虑
前端·人工智能·ai编程
YJlio5 小时前
1.7 通过 Sysinternals Live 在线运行工具:不下载也能用的“云端工具箱”
c语言·网络·python·数码相机·ios·django·iphone
deephub5 小时前
Agent Lightning:微软开源的框架无关 Agent 训练方案,LangChain/AutoGen 都能用
人工智能·microsoft·langchain·大语言模型·agent·强化学习
偷吃的耗子5 小时前
【CNN算法理解】:三、AlexNet 训练模块(附代码)
深度学习·算法·cnn
l1t5 小时前
在wsl的python 3.14.3容器中使用databend包
开发语言·数据库·python·databend
大模型RAG和Agent技术实践5 小时前
从零构建本地AI合同审查系统:架构设计与流式交互实战(完整源代码)
人工智能·交互·智能合同审核
老邋遢5 小时前
第三章-AI知识扫盲看这一篇就够了
人工智能
互联网江湖5 小时前
Seedance2.0炸场:长短视频们“修坝”十年,不如AI放水一天?
人工智能