ubuntu22.04本地部署OpenWebUI

一、简介

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。

二、安装

方法 1:docker安装

注意

Open WebUI 需要 WebSocket 支持才能正常运行。确保您的网络配置允许 WebSocket 连接。

bash 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
# 支持GPU
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

安装后,访问http://ip:3000

方法 2:手动安装

1.安装uv

bash 复制代码
curl -LsSf https://astral.sh/uv/install.sh | sh

2.运行 Open WebUI

bash 复制代码
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

安装后,可以访问 Open WebUI at http://ip:8080

三、配置




四: 问题解决

1.open webui 白屏问题:

在白屏页面等待几分钟后,进入系统,右上角管理员面板中点击设置选项,找到外部连接,关闭OpenAI API接口,然后点击右下角保存即可。

相关推荐
AI大模型1 天前
Ollama系列教程(八):semantic kernel调用ollama接口
程序员·llm·ollama
理论最高的吻1 天前
本地部署 DeepSeek R1(最新)【从下载、安装、使用和调用一条龙服务】
ai·本地部署·ollama·deepseek
老大白菜4 天前
构建多模型协同的Ollama智能对话系统
python·ollama
青苔猿猿5 天前
OpenWebUI(1)源码学习构建
ai学习·openwebui
-曾牛7 天前
Spring Boot 深度集成 Ollama 指南:从聊天模型配置到生产级应用开发
java·人工智能·spring boot·后端·聊天机器人·本地部署·ollama
壶小旭8 天前
ollama list模型列表获取 接口代码
ollama·ollama list
纠结哥_Shrek13 天前
ollama+open-webui搭建可视化大模型聊天
人工智能·电商·ollama·open-webui
Liii40313 天前
解决RAGFlow部署中镜像源拉取的问题
gpt-3·rag·ollama·ragflow部署
qq_3680196613 天前
Python结合ollama和stramlit开发聊天机器人
开发语言·python·机器人·streamlit·ollama
小胡说人工智能15 天前
深度剖析:Dify+Sanic+Vue+ECharts 搭建 Text2SQL 项目 sanic-web 的 Debug 实战
人工智能·python·llm·text2sql·dify·vllm·ollama