ollama+openwebui本地部署及踩坑记录

先决环境条件

bash 复制代码
docker run -d -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

遇到的问题

使用 http://127.0.0.1:11434/ 访问Ollama显示Ollama is running,说明Ollama正常。

Ollama中安装了模型,并且可以命令行形式使用。

使用http://localhost:3000/登录OpenWebUI后发现没有模型【这是端口号是3000不是8080,8080在我自己电脑上无法打开】

解决方法

  • 看了网上的很多教程,没法解决。问题根本原因:openwebui docker内部无法访问宿主机的ollama服务,也就是docker exec -it open-webui curl http://host.docker.internal:11434返回的是curl: (7) Failed to connect to host.docker.internal port 11434 after 0 ms: Couldn't connect to server
  • 运行编辑命令:
bash 复制代码
# 1. 永久编辑ollama监听网址,如果只是OLLAMA_HOST=0.0.0.0 ollama serve这样重新启动ollama
# 你会发现可以openwebui docker内部确实可以访问 host.docker.internal port 11434了
# 但是,ollama list却显示不了你之前下载的模型了,必须通过systemctl
sudo systemctl edit ollama
# 2. 在nano编辑器里面输入,nano用法自行查找(注意坑:不能在最底下输入,必须在中间一段空地方输入,
# 否则不能有效保存,会被认为没有写,标志就是你写完还是会返回一句Editing ".../override.conf" 
# canceled: temporary file is empty.):
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
# 3. 查看 override 文件内容,可以看到我们刚刚写入的就成功了
cat /etc/systemd/system/ollama.service.d/override.conf
# 4. 重载并重启服务
sudo systemctl daemon-reload
sudo systemctl restart ollama
# 5. 最终验证:检查监听地址
ss -tuln | grep 11434
# 应该输出:tcp   LISTEN 0      4096                                    *:11434            *:*

openwebui的功能还需进一步探索,可能没我们使用的各个公司的功能界面那样理想!

相关推荐
竹之却1 天前
【OpenClaw】云服务器端 openclaw 集成本地 Windows端 ollama 模型
windows·llama·ollama·openclaw·qwen3.5
加斯顿工程师1 天前
Windows系统使用Ollama本地化部署Qwen3.5-9B模型教程
windows·大模型·本地部署·ollama·qwen3.5
chenhua1 天前
openclaw基于飞书群聊中减少机器人大模型调用次数
飞书·ollama·群聊·本地小模型·多agent·openclaw
brucelee1864 天前
Debian 安装 Ollama 教程
debian·ollama·open claw
将冲破艾迪i4 天前
【AI】部署及调用deepseek和qwen等大模型
人工智能·python·ollama·deepseek
竹之却5 天前
【Ollama】解决 ollama 软件下载慢,模型下载慢的问题
代理·ollama·deepseek·openclaw·ollama 模型下载
福大大架构师每日一题7 天前
ollama v0.18.2 发布!OpenClaw 安装优化、Claude 加速、MLX 量化全面升级
golang·ollama
razelan10 天前
本地大模型系列:2.通过API让本地大模型为你服务
人工智能·api·ollama·本地大模型
樂油10 天前
小龙虾OpenClaw本地部署(四)连接ollama模型(qwen3.5:0.8b为例)
ollama·openclaw
弗锐土豆10 天前
使用ollama运行本地大模型
llm·大语言模型·安装·ollama