解决容器内deepspeed微调大模型报错

解决容器内deepspeed微调大模型报错:[launch.py:315:sigkill_handler] Killing subprocess

问题描述:

在容器中用deepspeed微调百川大模型2时,出现上述错误,错误是由于生成容器时,共享内存没有设置,采用默认值引起的。终端输入ds_report,可以查看shared_memory,(之前是默认63M,现已调整50G)

解决办法

docker stop 容器名

docker rm 容器名

重新生成容器时加上共享内存参数:--shm-size=1g

例:

docker run -it -d --shm-size=50g --name 容器名--net host --gpus all -v 宿主机路径:容器内路径 -e NVIDIA_DRIVER_CAPABILITIES=compute,utility ubuntu:latest /bin/bash

相关推荐
百度Geek说3 分钟前
AI Agent 如何重构 App 稳定性治理流程
人工智能
十有八七3 分钟前
Hermes Agent 自进化实现:从源码到架构的深度拆解
前端·人工智能
ZFSS4 分钟前
PixVerse 视频生成 API 实战教程
人工智能·ai·ai作画·音视频·ai编程
RxGc8 分钟前
MCP生态爆发:Anthropic的协议野心与开发者的真实机会
人工智能·mcp
agicall.com16 分钟前
信电助 - 智能话务盒 UB-A-XC 型号功能列表
人工智能·语音识别·信创电话助手·固话录音转文字
Dovis(誓平步青云)21 分钟前
《如何通过prometheus-webhook-dingtalk解决 Alertmanager 原生不支持钉钉 Webhook问题》
人工智能·生成对抗网络·钉钉·运维开发·prometheus
Jet76921 分钟前
Gemini业务复盘上线前怎么做失败样本和成本字段管理
人工智能
rabbit_pro22 分钟前
Spring AI使用Ollama
java·人工智能·spring
折哥的程序人生 · 物流技术专研23 分钟前
出版社物流WMS智能调度实战(三):从“卡死”到“跑稳”——WMS机器学习运维监控与自动回滚实战
运维·人工智能·机器学习·架构·人机交互