CentOS 7 docker安装ollama、open-webui

--创建 ai 用户,以 root 身份执行

useradd -m -s /bin/bash ai

passwd ai --ai@2026!

mkdir -p /home/ai

chown -R ai:ai /home/ai

chmod 755 /home/ai

--安装 Docker,以 root 身份执行

yum remove -y docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-engine

yum install -y yum-utils device-mapper-persistent-data lvm2 # 安装依赖

yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo # 添加 Docker 仓库(使用阿里云镜像加速)

yum install -y docker-ce docker-ce-cli containerd.io # 安装 Docker

#ai用户加入docker、wheel组

usermod -aG docker ai

配置 Docker 镜像加速(国内)

mkdir -p /etc/docker

cat > /etc/docker/daemon.json <<EOF

{

"registry-mirrors": [

"https://docker.1ms.run",

"https://hub.rat.dev"

]

}

EOF

systemctl daemon-reload # 让 systemd 重新读取配置文件

systemctl start docker # 启动 Docker

systemctl status docker# 查看启动状态

systemctl restart docker # 重启 Docker

验证

docker --version

docker info 看Registry Mirrors是否国内镜像

  • 安装ollama

su - ai

mkdir -p /home/ai/{ollama,open-webui}

docker pull docker.1ms.run/ollama/ollama:latest

docker pull docker.1ms.run/dyrnq/open-webui:latest

#查看镜像

ai@localhost \~\]$ docker images REPOSITORY TAG IMAGE ID CREATED SIZE docker.1ms.run/dyrnq/open-webui latest eef064db6151 3 days ago 4.64GB docker.1ms.run/ollama/ollama latest cb27efcf587f 3 days ago 5.63GB \[ai@localhost \~\]$ # 启动 Ollama容器 docker run -d \\ --name ollama \\ --restart unless-stopped \\ -p 11434:11434 \\ -v /home/ai/ollama:/root/.ollama \\ -e OLLAMA_HOST=0.0.0.0 \\ docker.1ms.run/ollama/ollama:latest 启动:docker start ollama # docker run会自动启动,stop以后才用此命令启动 停止:docker stop ollama 查看:docker ps -a \| grep ollama # -a 参数可显示已经stop的容器 docker exec -it ollama ollama -v curl [http://localhost:11434/api/version](http://localhost:11434/api/version "http://localhost:11434/api/version") 删除容器:docker rm -f ollama # 如果docker run 后面参数修改了,要重新启动,就需要先删除容器,否则会报错;-f 参数可强制删除正在运行的容器 离线模型-下载:[https://modelscope.cn/models/unsloth/Qwen3-8B-GGUF下载Qwen3-8B-Q4_K_M、Qwen3-8B-Q3_K_M](https://modelscope.cn/models/unsloth/Qwen3-8B-GGUF下载Qwen3-8B-Q4_K_M、Qwen3-8B-Q3_K_M "https://modelscope.cn/models/unsloth/Qwen3-8B-GGUF下载Qwen3-8B-Q4_K_M、Qwen3-8B-Q3_K_M"),下载后放到/home/ai/ollama/models目录 离线模型-注册文件:在目录/home/ai/ollama/models创建文件:vi Modelfile FROM /root/.ollama/models/Qwen3-8B-Q4_K_M.gguf 在线模型-拉取:docker exec -it ollama ollama pull qwen3:4b 离线模型-注册:docker exec -it ollama ollama create qwen3-8b -f /root/.ollama/models/Modelfile 查看已下载模型:docker exec -it ollama ollama list 测试模型:docker exec -it ollama ollama run qwen3:4b "你好,请介绍一下你自己" 删除模型:docker exec -it ollama ollama rm qwen3-8b:latest 交互模式执行命令:docker exec -it ollama bash;ollama-v; # 启动 Open WebUI(手动 docker run) docker run -d \\ --name open-webui \\ --restart unless-stopped \\ -p 3000:8080 \\ -v /home/ai/open-webui:/app/backend/data \\ --add-host=host.docker.internal:host-gateway \\ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\ docker.1ms.run/dyrnq/open-webui:latest 停止:docker stop open-webui 查看:docker ps \| grep open-webui Open WebUI http://172.30.3.241:3000 Ollama API http://172.30.3.241:11434

相关推荐
@SmartSi1 天前
Ollama 实战:从零开始本地运行大语言开源模型
llm·ollama
风笑谷2 天前
openclaw+ollama+企业微信 实操记录
企业微信·ollama·openclaw
CrazyStoneZw6 天前
openclaw配置ollama本地模型
本地化·ollama·openclaw
love530love7 天前
【OpenClaw 本地实战 Ep.2】零代码对接:使用交互式向导快速连接本地 LM Studio 用 CUDA GPU 推理
人工智能·windows·gpu·cuda·ollama·lm studio·openclaw
yyoc9710 天前
Mac基于LLaMA Factory微调模型导入Ollama踩坑记录
大模型·微调·llama·ollama
山塘小鱼儿11 天前
本地Ollama+Agent+LangGraph+LangSmith运行
python·langchain·ollama·langgraph·langsimth
前进吧-程序员13 天前
Ollama 本地部署编程大模型 + Zed 编辑器配置指南
ai编程·zed·ollama
liuchangng13 天前
Huggingface大模型下载方法总结_20260128084905
人工智能·llm·ollama
落淼喵_G13 天前
智能语音交互与本地知识库技术整合
python·模型·ollama