ubuntu22.04本地部署OpenWebUI

一、简介

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。

二、安装

方法 1:docker安装

注意

Open WebUI 需要 WebSocket 支持才能正常运行。确保您的网络配置允许 WebSocket 连接。

bash 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
# 支持GPU
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

安装后,访问http://ip:3000

方法 2:手动安装

1.安装uv

bash 复制代码
curl -LsSf https://astral.sh/uv/install.sh | sh

2.运行 Open WebUI

bash 复制代码
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

安装后,可以访问 Open WebUI at http://ip:8080

三、配置




四: 问题解决

1.open webui 白屏问题:

在白屏页面等待几分钟后,进入系统,右上角管理员面板中点击设置选项,找到外部连接,关闭OpenAI API接口,然后点击右下角保存即可。

相关推荐
最菜灰夫人15 小时前
在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程
ollama
狂炫一碗大米饭9 天前
使用 Ollama搭建代理ai工作流
ollama
我想说一句12 天前
Next.js+Ollama本地聊天模型应用!
前端·next.js·ollama
G等你下课13 天前
使用 Ollama 本地部署 AI 聊天应用
next.js·ollama
AI大模型13 天前
重磅!Ollama发布UI界面,告别命令窗口!
程序员·llm·ollama
浩瀚蓝天dep16 天前
使用Ollama部署自己的本地模型
ai大模型·ollama·deepseek
大模型教程18 天前
LM Studio本地部署Qwen3
程序员·llm·ollama
_風箏18 天前
Ollama【部署 02】Linux本地化部署及SpringBoot2.X集成Ollama(ollama-linux-amd64.tgz最新版本 0.6.2)
人工智能·后端·ollama
AI大模型25 天前
基于 Ollama 本地 LLM 大语言模型实现 ChatGPT AI 聊天系统
程序员·llm·ollama
李大腾腾1 个月前
3、JSON处理( n8n 节点用于交换信息的语言)
openai·workflow·ollama