设置 Ollama 容器自动重启和模型自动加载的方法

目录

前言

一、容器自启动

[✅ 方法一:在启动容器时直接加入 --restart=always](#✅ 方法一:在启动容器时直接加入 --restart=always)

[✅ 方法二:如果容器已创建,只需修改 restart policy](#✅ 方法二:如果容器已创建,只需修改 restart policy)

[🧪 验证是否自动启动](#🧪 验证是否自动启动)

[📌 注意事项](#📌 注意事项)

二、模型自加载

方案:给容器增加自动加载脚本

[1. 创建一个 entrypoint/warmup 脚本](#1. 创建一个 entrypoint/warmup 脚本)

[2. 修改 docker run,让容器使用此脚本作为 Entrypoint](#2. 修改 docker run,让容器使用此脚本作为 Entrypoint)

[🔥 结果效果](#🔥 结果效果)


前言

当使用Docker的方式部署了ollama容器之后,如果遇到主机重启,那么ollama容器并不会自动重启,其中已经下载好的模型也不会自动加载。针对这种情况,下面我将详述如何设置ollama容器的自动启动和自动加载所需要的模型。

一、容器自启动

要让 Ollama 容器在主机重启后自动启动,有两种常见方式:

方法一:在启动容器时直接加入 --restart=always

如果你是使用 docker run 启动容器,那么只需要添加:

bash 复制代码
--restart=always

例如:

bash 复制代码
sudo docker run -d \
  --gpus=all \
  --restart=always \
  -v /ollama_weights:/root/.ollama \
  -p 11434:11434 \
  --network host
  --name ollama \
  ollama/ollama:latest

这样 Docker 会保证:

重启情况 容器是否自动启动
主机重启 ✔ 自动启动
Docker 服务重启 ✔ 自动启动
容器退出(异常) ✔ 自动重启
手动 docker stop ✘ 不会重启(因为你是手动关的)

方法二:如果容器已创建,只需修改 restart policy

如果 你已经创建了容器,可以直接修改它的 restart policy,而不需要重建容器:

bash 复制代码
sudo docker update --restart=always ollama

查看是否设置成功:

bash 复制代码
sudo docker inspect -f '{{.HostConfig.RestartPolicy.Name}}' ollama

如果输出:

bash 复制代码
always

说明设置成功。

🧪 验证是否自动启动

你可以亲自测试:

① 重启 Docker 服务

bash 复制代码
sudo systemctl restart docker

然后查看容器是否自动启动:

bash 复制代码
sudo docker ps | grep ollama

② 重启整台机器

bash 复制代码
sudo reboot

系统启动后:

bash 复制代码
sudo docker ps | grep ollama

如果仍然在运行,就说明自动启动成功。

📌 注意事项

✔ 如果你的容器是通过 docker-compose 启动

需要在 docker-compose.yml 中加入:

bash 复制代码
restart: always

二、模型自加载

容器中启动的 Ollama 不会在重启时自动 pull/运行模型 。它只会在你调用时(如 ollama run xxx)动态加载。如果你希望容器重启后 模型自动就绪 ,需要:在容器启动后主动运行一次模型。

例如:

bash 复制代码
ollama run qwen2.5:14b "hello"

这一步会 强制模型加载到本地并初始化,后续请求就不会卡在第一次编译/加载上。

方案:给容器增加自动加载脚本

1. 创建一个 entrypoint/warmup 脚本

在宿主机 (比如/dify_workspace/ollama_weights/目录下) 新建文件:

/dify_workspace/ollama_weights/init_models.sh

bash 复制代码
#!/bin/sh

# 后台启动 ollama 服务
ollama serve &

# 等待服务就绪
sleep 5

# 自动预加载你需要的模型(不会输出内容)
ollama run qwen2.5:14b "warmup" >/dev/null 2>&1
ollama run shaw/dmeta-embedding-zh:latest "warmup" >/dev/null 2>&1

# 保持前台运行
wait

给权限:

bash 复制代码
chmod +x /dify_workspace/ollama_weights/init_models.sh

2. 修改 docker run,让容器使用此脚本作为 Entrypoint

替代你现在的启动命令:

bash 复制代码
docker run -d --gpus=all \
  --restart=always \
  -v /dify_workspace/ollama_weights:/root/.ollama \
  -v /dify_workspace/ollama_weights/init_models.sh:/init_models.sh \
  -p 11434:11434 \
  --network host \
  --name ollama \
  --entrypoint /bin/sh \
  ollama/ollama:latest /init_models.sh

注意使用:

bash 复制代码
--entrypoint /bin/sh

来替换镜像默认入口点。

这样容器启动时将:

  1. 启动 ollama 服务

  2. 自动 warm-up(加载)模型

  3. 保持前台运行

🔥 结果效果

功能 实现
模型文件持久保存 /root/.ollama 映射到宿主机
容器重启后自动加载模型 ollama run xxx 自动 warm-up
避免第一次调用卡顿 ✔ 预热机制
自动运行 + 自动恢复 ✔ 使用 entrypoint 或 compose

相关推荐
冬奇Lab1 天前
RAG 系列(一):大模型为什么需要「外挂记忆」
人工智能·llm
冬奇Lab1 天前
一天一个开源项目(第86篇):VibeVoice —— 微软开源的前沿语音 AI,单次处理 90 分钟多说话人音频
人工智能·llm
AI自动化工坊1 天前
Hugging Face ml-intern技术深度解析:AI机器学习工程师的工程实践
人工智能·机器学习·huggingface·ml-intern·ai机器学习
疯狂成瘾者1 天前
Agent 的需求理解质量如何具体实现:从意图识别到槽位补全、追问与确认机制
人工智能·自然语言处理
北京软秦科技有限公司1 天前
资料验收报告审核再升级,IACheck与AI报告审核共同开创新标准
人工智能
Zzj_tju1 天前
视觉语言模型技术指南:图像是怎么“接入”语言模型的?视觉编码器、投影层与对齐机制详解
人工智能·语言模型·自然语言处理
Fullde福德负载箱厂家1 天前
负载箱的日常运维与故障处置:用户应知的设备保养与异常应对
人工智能·制造
jinanwuhuaguo1 天前
OpenClaw工程解剖——RAG、向量织构与“记忆宫殿”的索引拓扑学(第十三篇)
android·开发语言·人工智能·kotlin·拓扑学·openclaw
大龄程序员狗哥1 天前
第44篇:命名实体识别(NER)实战——从文本中提取关键信息(项目实战)
人工智能
lpfasd1231 天前
2026年第17周GitHub趋势周报:AI代理工程化与端侧智能加速落地
人工智能·github