ubuntu22.04本地部署OpenWebUI

一、简介

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。

二、安装

方法 1:docker安装

注意

Open WebUI 需要 WebSocket 支持才能正常运行。确保您的网络配置允许 WebSocket 连接。

bash 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
# 支持GPU
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

安装后,访问http://ip:3000

方法 2:手动安装

1.安装uv

bash 复制代码
curl -LsSf https://astral.sh/uv/install.sh | sh

2.运行 Open WebUI

bash 复制代码
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

安装后,可以访问 Open WebUI at http://ip:8080

三、配置




四: 问题解决

1.open webui 白屏问题:

在白屏页面等待几分钟后,进入系统,右上角管理员面板中点击设置选项,找到外部连接,关闭OpenAI API接口,然后点击右下角保存即可。

相关推荐
岛雨QA1 天前
🎉Token自由-Ollama部署本地大模型超详细操作指南
人工智能·llm·ollama
青龙小码农5 天前
milvus+elasticsearch+ollama实现企业级RAG搭建
elasticsearch·milvus·ollama·rga
福大大架构师每日一题7 天前
ollama v0.21.2 最新更新详解:OpenClaw 更稳了,模型推荐顺序终于固定,云端结构化输出说明也补上了
ollama
nicepainkiller7 天前
Coza 本地搭建 + Ollama支持
ollama·coza
java_logo8 天前
Docker 部署 Open WebUI + Ollama 完整教程(Windows / Linux 通用)—— 打造自己的本地OpenAI
linux·docker·容器·ollama·open-webui·open-webui部署·open-webui教程
钟智强9 天前
国内环境Ollama安装与DeepSeek-R1:1.5b部署全攻略
安全·web安全·网络安全·ollama·deepseek
千江明月10 天前
Ollama安装的详细步骤以及Python调用Qwen
开发语言·python·ollama·qwen模型
SNOWPIAOP11 天前
从MAC电脑复制qwen3.5:4b 的OLLAMA模型到LINUX电脑实践
linux·运维·macos·manifest·ollama·blobs
姜太小白11 天前
【Ollama】Ollama支持的主流模型列表
模型·ollama
姜太小白11 天前
【OpenClaw】OpenClaw配置Ollama模型指南
ollama·openclaw