ollama+openwebui本地部署及踩坑记录

先决环境条件

bash 复制代码
docker run -d -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

遇到的问题

使用 http://127.0.0.1:11434/ 访问Ollama显示Ollama is running,说明Ollama正常。

Ollama中安装了模型,并且可以命令行形式使用。

使用http://localhost:3000/登录OpenWebUI后发现没有模型【这是端口号是3000不是8080,8080在我自己电脑上无法打开】

解决方法

  • 看了网上的很多教程,没法解决。问题根本原因:openwebui docker内部无法访问宿主机的ollama服务,也就是docker exec -it open-webui curl http://host.docker.internal:11434返回的是curl: (7) Failed to connect to host.docker.internal port 11434 after 0 ms: Couldn't connect to server
  • 运行编辑命令:
bash 复制代码
# 1. 永久编辑ollama监听网址,如果只是OLLAMA_HOST=0.0.0.0 ollama serve这样重新启动ollama
# 你会发现可以openwebui docker内部确实可以访问 host.docker.internal port 11434了
# 但是,ollama list却显示不了你之前下载的模型了,必须通过systemctl
sudo systemctl edit ollama
# 2. 在nano编辑器里面输入,nano用法自行查找(注意坑:不能在最底下输入,必须在中间一段空地方输入,
# 否则不能有效保存,会被认为没有写,标志就是你写完还是会返回一句Editing ".../override.conf" 
# canceled: temporary file is empty.):
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
# 3. 查看 override 文件内容,可以看到我们刚刚写入的就成功了
cat /etc/systemd/system/ollama.service.d/override.conf
# 4. 重载并重启服务
sudo systemctl daemon-reload
sudo systemctl restart ollama
# 5. 最终验证:检查监听地址
ss -tuln | grep 11434
# 应该输出:tcp   LISTEN 0      4096                                    *:11434            *:*

openwebui的功能还需进一步探索,可能没我们使用的各个公司的功能界面那样理想!

相关推荐
深色風信子3 天前
SpringBoot 集成 LangChain4j 本地调用 Ollama
java·spring boot·spring·ollama·langchain4j
不语n6 天前
Windows+Docker+AI开发板打造智能终端助手
python·docker·树莓派·香橙派·dify·ollama·ai开发板
安娜的信息安全说8 天前
Ollama 使用详解:本地部署大语言模型的指南
人工智能·ai·语言模型·ollama
安娜的信息安全说9 天前
Hugging Face vs Ollama:云端协作与本地隐私的AI平台对决
人工智能·hugging face·ollama
mCell17 天前
长期以来我对 LLM 的误解
深度学习·llm·ollama
A尘埃17 天前
Cherry Studio+Ollama+大模型+向量模型,实现RAG私有知识库。智能体实现EXCEL转化为一个报表图表
rag·ollama·cherry studio
邂逅星河浪漫18 天前
【Spring AI】Ollama大模型-智能对话实现+项目实战(Spring Boot + Vue)
java·人工智能·spring boot·vue·prompt·agent·ollama
大模型教程19 天前
揭秘 Ollama+DeepSeek-R1+RAGFlow 本地RAG专属知识库、Agent智能助手搭建秘籍!
程序员·llm·ollama
水冗水孚23 天前
图文并茂记录:Ubuntu上安装Ollama大模型提供Serve,前端调用实现AI对话功能
nginx·ubuntu·ollama