ollama+openwebui本地部署及踩坑记录

先决环境条件

bash 复制代码
docker run -d -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

遇到的问题

使用 http://127.0.0.1:11434/ 访问Ollama显示Ollama is running,说明Ollama正常。

Ollama中安装了模型,并且可以命令行形式使用。

使用http://localhost:3000/登录OpenWebUI后发现没有模型【这是端口号是3000不是8080,8080在我自己电脑上无法打开】

解决方法

  • 看了网上的很多教程,没法解决。问题根本原因:openwebui docker内部无法访问宿主机的ollama服务,也就是docker exec -it open-webui curl http://host.docker.internal:11434返回的是curl: (7) Failed to connect to host.docker.internal port 11434 after 0 ms: Couldn't connect to server
  • 运行编辑命令:
bash 复制代码
# 1. 永久编辑ollama监听网址,如果只是OLLAMA_HOST=0.0.0.0 ollama serve这样重新启动ollama
# 你会发现可以openwebui docker内部确实可以访问 host.docker.internal port 11434了
# 但是,ollama list却显示不了你之前下载的模型了,必须通过systemctl
sudo systemctl edit ollama
# 2. 在nano编辑器里面输入,nano用法自行查找(注意坑:不能在最底下输入,必须在中间一段空地方输入,
# 否则不能有效保存,会被认为没有写,标志就是你写完还是会返回一句Editing ".../override.conf" 
# canceled: temporary file is empty.):
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
# 3. 查看 override 文件内容,可以看到我们刚刚写入的就成功了
cat /etc/systemd/system/ollama.service.d/override.conf
# 4. 重载并重启服务
sudo systemctl daemon-reload
sudo systemctl restart ollama
# 5. 最终验证:检查监听地址
ss -tuln | grep 11434
# 应该输出:tcp   LISTEN 0      4096                                    *:11434            *:*

openwebui的功能还需进一步探索,可能没我们使用的各个公司的功能界面那样理想!

相关推荐
大模型教程11 天前
Windows系统本地知识库构建:Cherry Studio+Ollama
llm·agent·ollama
Qiuner12 天前
快速入门LangChain4j Ollama本地部署与阿里百炼请求大模型
语言模型·langchain·nlp·llama·ollama
景天科技苑12 天前
【AI智能体开发】什么是LLM?如何在本地搭建属于自己的Ai智能体?
人工智能·llm·agent·智能体·ai智能体·ollama·智能体搭建
尽兴-17 天前
【10 分钟!M4 Mac mini 离线部署「私有 ChatGPT」完整实录】
macos·ai·chatgpt·大模型·ollama·私有化
成子不是橙子18 天前
Langchain | Ollama | Python快速上手使用LLM的DEMO
开发语言·python·langchain·ollama
深色風信子18 天前
SpringAI 本地调用 Ollama
rag·ollama·springai·springai ollama
大模型教程18 天前
AI 新玩法:GraphRAG × Ollama 打造更聪明的智能体
程序员·llm·ollama
tongsound22 天前
ollama部署本地模型(deepseek,qwen,gemma3,...)
ollama·deepseek
深色風信子25 天前
SpringBoot 集成 LangChain4j 本地调用 Ollama
java·spring boot·spring·ollama·langchain4j