服务器上用Slurm 管理训练bash 脚本任务,申明使用GPU

首先写配置

复制代码
# slurm.conf - 单机A800服务器配置
ClusterName=a800_cluster
ControlMachine=localhost
SlurmctldPort=6817
SlurmdPort=6818
SlurmUser=slurm
AuthType=auth/munge

# 日志配置
SlurmctldLogFile=/var/log/slurm/slurmctld.log
SlurmdLogFile=/var/log/slurm/slurmd.log
SlurmctldPidFile=/var/run/slurmctld.pid
SlurmdPidFile=/var/run/slurmd.pid
StateSaveLocation=/var/spool/slurmctld
SlurmdSpoolDir=/var/spool/slurmd

# 调度参数
SchedulerType=sched/backfill
SelectType=select/cons_tres
SelectTypeParameters=CR_Core
MpiDefault=none
TaskPlugin=task/affinity,task/cgroup

# 超时设置
SlurmctldTimeout=300
SlurmdTimeout=300
InactiveLimit=0
MinJobAge=300
KillWait=30
Waittime=0


# 性能优化参数
FastSchedule=1
MessageTimeout=10
TCPTimeout=2

# GPU相关配置
GresTypes=gpu
AutoDetect=none

# 任务管理
JobCompType=jobcomp/none
AccountingStorageType=accounting_storage/none

# 定义计算节点

NodeName=localhost NodeAddr=127.0.0.1   CPUs=128 Sockets=2 CoresPerSocket=32 ThreadsPerCore=2   Gres=gpu:8    State=UNKNOWN 

# 定义分区(队列)
PartitionName=gpu Nodes=localhost Default=YES MaxTime=INFINITE State=UP    OverSubscribe=NO 

PartitionName=gpu-debug Nodes=localhost Default=NO MaxTime=02:00:00 State=UP   OverSubscribe=NO DefMemPerGPU=24576

PartitionName=cpu Nodes=localhost Default=NO MaxTime=24:00:00 State=UP   OverSubscribe=YES
# 内存管理
#DefMemPerCPU=8192
#MaxMemPerCPU=16384
#DefMemPerNode=1048576
ProctrackType=proctrack/pgid

根据配置

  • 确认GRES类型 :在 slurm.conf 文件的开头部分,应该有类似下面的全局配置,声明支持的GRES类型:

    bash 复制代码
    GresTypes=gpu
  • 统一GPU资源类型 :为了简化请求,建议将节点配置中的GRES类型改为通用的 gpu。这样用户只需请求 --gres=gpu:1

    bash 复制代码
    # 修改后
    NodeName=localhost ... Gres=gpu:8 ...

    如果确实需要区分A800和其他型号的GPU,可以在 gres.conf 中通过 Type 字段指定。

2. 创建并配置 gres.conf 文件

这是最关键的一步 。请在您的计算节点(本例中是localhost)上创建或编辑 /etc/slurm/gres.conf 文件。

bash 复制代码
# 示例 /etc/slurm/gres.conf 配置
NodeName=localhost Name=gpu  File=/dev/nvidia0
NodeName=localhost Name=gpu  File=/dev/nvidia1
NodeName=localhost Name=gpu  File=/dev/nvidia2
NodeName=localhost Name=gpu  File=/dev/nvidia3
NodeName=localhost Name=gpu  File=/dev/nvidia4
NodeName=localhost Name=gpu  File=/dev/nvidia5
NodeName=localhost Name=gpu  File=/dev/nvidia6
NodeName=localhost Name=gpu  File=/dev/nvidia7
  • File=/dev/nvidia[0-7] 指明了GPU设备的路径,Slurm通过它们与物理GPU交互。请根据您系统上实际的GPU设备文件进行修改,可以使用 ls /dev/nvidia* 命令查看。
3. 验证调度插件配置

确保 slurm.conf 中配置了支持GRES的调度插件:

bash 复制代码
SelectType=select/cons_tres
SelectTypeParameters=CR_Core
4. 重启服务并验证配置

完成所有配置修改后,必须重启Slurm服务以使更改生效,然后验证配置是否正确。

bash 复制代码
# 重新加载或重启服务(在控制节点和计算节点上执行)
sudo systemctl restart slurmctld
sudo systemctl restart slurmd

# 验证节点是否正确识别了GPU资源
scontrol show node localhost | grep Gres

命令输出应明确显示该节点有8个GPU资源可用,例如 Gres=gpu:8

验证分区和节点状态

sinfo -o "%N %G %P %T" # 查看节点名称、GRES、分区和状态

5. 测试GPU作业提交

配置正确后,再次尝试提交作业:

bash 复制代码
srun -p gpu --gres=gpu:1 nvidia-smi

如果配置完全正确,此命令应能成功执行并输出NVIDIA-SMI的信息。

⚠️ 注意事项

  • 配置文件权限 :确保 slurm.confgres.conf 文件对所有相关节点上的Slurm用户(通常是 slurm)可读。
  • 配置一致性:集群中所有节点上的Slurm配置文件必须保持一致。
  • 查看日志 :如果问题依旧,请检查Slurm的日志文件(如 /var/log/slurm/slurmd.log/var/log/slurm/slurmctld.log),通常能找到具体的错误信息。
相关推荐
gfdgd xi5 小时前
deepin 终端,但是版本是 deepin 15 的
linux·python·架构·ssh·bash·shell·deepin
TG:@yunlaoda360 云老大6 小时前
阿里云国际站GPU:什么是GPU容器共享技术cGPU?实例命名规则是怎么样的?
服务器·阿里云·云计算
小草cys6 小时前
华为910B服务器(搭载昇腾Ascend 910B AI 芯片的AI服务器查看服务器终端信息
服务器·人工智能·华为·昇腾·910b
边疆.7 小时前
【Linux】编辑器vim的使用和理解gcc编译器
linux·运维·服务器·编辑器·vim
z10_147 小时前
什么是住宅IP,住宅IP应用场景有哪些
linux·服务器·tcp/ip
葛小白113 小时前
C#数据类型:string简单使用
服务器·数据库·c#
namekong813 小时前
清理谷歌浏览器垃圾文件 Chrome “User Data”
前端·chrome
fat house cat_16 小时前
【netty】基于主从Reactor多线程模型|如何解决粘包拆包问题|零拷贝
java·服务器·网络·netty
wanhengidc16 小时前
云手机和虚拟机的区别都有哪些?
运维·服务器·安全·智能手机·玩游戏