ollama+openwebui本地部署及踩坑记录

先决环境条件

bash 复制代码
docker run -d -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

遇到的问题

使用 http://127.0.0.1:11434/ 访问Ollama显示Ollama is running,说明Ollama正常。

Ollama中安装了模型,并且可以命令行形式使用。

使用http://localhost:3000/登录OpenWebUI后发现没有模型【这是端口号是3000不是8080,8080在我自己电脑上无法打开】

解决方法

  • 看了网上的很多教程,没法解决。问题根本原因:openwebui docker内部无法访问宿主机的ollama服务,也就是docker exec -it open-webui curl http://host.docker.internal:11434返回的是curl: (7) Failed to connect to host.docker.internal port 11434 after 0 ms: Couldn't connect to server
  • 运行编辑命令:
bash 复制代码
# 1. 永久编辑ollama监听网址,如果只是OLLAMA_HOST=0.0.0.0 ollama serve这样重新启动ollama
# 你会发现可以openwebui docker内部确实可以访问 host.docker.internal port 11434了
# 但是,ollama list却显示不了你之前下载的模型了,必须通过systemctl
sudo systemctl edit ollama
# 2. 在nano编辑器里面输入,nano用法自行查找(注意坑:不能在最底下输入,必须在中间一段空地方输入,
# 否则不能有效保存,会被认为没有写,标志就是你写完还是会返回一句Editing ".../override.conf" 
# canceled: temporary file is empty.):
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
# 3. 查看 override 文件内容,可以看到我们刚刚写入的就成功了
cat /etc/systemd/system/ollama.service.d/override.conf
# 4. 重载并重启服务
sudo systemctl daemon-reload
sudo systemctl restart ollama
# 5. 最终验证:检查监听地址
ss -tuln | grep 11434
# 应该输出:tcp   LISTEN 0      4096                                    *:11434            *:*

openwebui的功能还需进一步探索,可能没我们使用的各个公司的功能界面那样理想!

相关推荐
曲幽2 天前
FastAPI实战:打造本地文生图接口,ollama+diffusers让AI绘画更听话
python·fastapi·web·cors·diffusers·lcm·ollama·dreamshaper8·txt2img
曲幽3 天前
我用FastAPI接ollama大模型,差点被asyncio整崩溃(附对话窗口实战)
python·fastapi·web·async·httpx·asyncio·ollama
曲幽4 天前
FastAPI + Ollama 实战:搭一个能查天气的AI助手
python·ai·lora·torch·fastapi·web·model·ollama·weatherapi
bwz999@88.com8 天前
CentOS 7安装ollama
linux·centos·ollama
bwz999@88.com8 天前
CentOS 7 docker安装ollama、open-webui
ollama
@SmartSi9 天前
Ollama 实战:从零开始本地运行大语言开源模型
llm·ollama
风笑谷10 天前
openclaw+ollama+企业微信 实操记录
企业微信·ollama·openclaw
CrazyStoneZw14 天前
openclaw配置ollama本地模型
本地化·ollama·openclaw
love530love15 天前
【OpenClaw 本地实战 Ep.2】零代码对接:使用交互式向导快速连接本地 LM Studio 用 CUDA GPU 推理
人工智能·windows·gpu·cuda·ollama·lm studio·openclaw
yyoc9718 天前
Mac基于LLaMA Factory微调模型导入Ollama踩坑记录
大模型·微调·llama·ollama