--创建 ai 用户,以 root 身份执行
useradd -m -s /bin/bash ai
passwd ai --ai@2026!
mkdir -p /home/ai
chown -R ai:ai /home/ai
chmod 755 /home/ai
--安装 Docker,以 root 身份执行
yum remove -y docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-engine
yum install -y yum-utils device-mapper-persistent-data lvm2 # 安装依赖
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo # 添加 Docker 仓库(使用阿里云镜像加速)
yum install -y docker-ce docker-ce-cli containerd.io # 安装 Docker
#ai用户加入docker、wheel组
usermod -aG docker ai
配置 Docker 镜像加速(国内)
mkdir -p /etc/docker
cat > /etc/docker/daemon.json <<EOF
{
"registry-mirrors": [
]
}
EOF
systemctl daemon-reload # 让 systemd 重新读取配置文件
systemctl start docker # 启动 Docker
systemctl status docker# 查看启动状态
systemctl restart docker # 重启 Docker
验证
docker --version
docker info 看Registry Mirrors是否国内镜像
- 安装ollama
su - ai
mkdir -p /home/ai/{ollama,open-webui}
docker pull docker.1ms.run/ollama/ollama:latest
docker pull docker.1ms.run/dyrnq/open-webui:latest
#查看镜像
ai@localhost \~\]$ docker images REPOSITORY TAG IMAGE ID CREATED SIZE docker.1ms.run/dyrnq/open-webui latest eef064db6151 3 days ago 4.64GB docker.1ms.run/ollama/ollama latest cb27efcf587f 3 days ago 5.63GB \[ai@localhost \~\]$ # 启动 Ollama容器 docker run -d \\ --name ollama \\ --restart unless-stopped \\ -p 11434:11434 \\ -v /home/ai/ollama:/root/.ollama \\ -e OLLAMA_HOST=0.0.0.0 \\ docker.1ms.run/ollama/ollama:latest 启动:docker start ollama # docker run会自动启动,stop以后才用此命令启动 停止:docker stop ollama 查看:docker ps -a \| grep ollama # -a 参数可显示已经stop的容器 docker exec -it ollama ollama -v curl [http://localhost:11434/api/version](http://localhost:11434/api/version "http://localhost:11434/api/version") 删除容器:docker rm -f ollama # 如果docker run 后面参数修改了,要重新启动,就需要先删除容器,否则会报错;-f 参数可强制删除正在运行的容器 离线模型-下载:[https://modelscope.cn/models/unsloth/Qwen3-8B-GGUF下载Qwen3-8B-Q4_K_M、Qwen3-8B-Q3_K_M](https://modelscope.cn/models/unsloth/Qwen3-8B-GGUF下载Qwen3-8B-Q4_K_M、Qwen3-8B-Q3_K_M "https://modelscope.cn/models/unsloth/Qwen3-8B-GGUF下载Qwen3-8B-Q4_K_M、Qwen3-8B-Q3_K_M"),下载后放到/home/ai/ollama/models目录 离线模型-注册文件:在目录/home/ai/ollama/models创建文件:vi Modelfile FROM /root/.ollama/models/Qwen3-8B-Q4_K_M.gguf 在线模型-拉取:docker exec -it ollama ollama pull qwen3:4b 离线模型-注册:docker exec -it ollama ollama create qwen3-8b -f /root/.ollama/models/Modelfile 查看已下载模型:docker exec -it ollama ollama list 测试模型:docker exec -it ollama ollama run qwen3:4b "你好,请介绍一下你自己" 删除模型:docker exec -it ollama ollama rm qwen3-8b:latest 交互模式执行命令:docker exec -it ollama bash;ollama-v; # 启动 Open WebUI(手动 docker run) docker run -d \\ --name open-webui \\ --restart unless-stopped \\ -p 3000:8080 \\ -v /home/ai/open-webui:/app/backend/data \\ --add-host=host.docker.internal:host-gateway \\ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\ docker.1ms.run/dyrnq/open-webui:latest 停止:docker stop open-webui 查看:docker ps \| grep open-webui Open WebUI http://172.30.3.241:3000 Ollama API http://172.30.3.241:11434