ubuntu22.04本地部署OpenWebUI

一、简介

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。

二、安装

方法 1:docker安装

注意

Open WebUI 需要 WebSocket 支持才能正常运行。确保您的网络配置允许 WebSocket 连接。

bash 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
# 支持GPU
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

安装后,访问http://ip:3000

方法 2:手动安装

1.安装uv

bash 复制代码
curl -LsSf https://astral.sh/uv/install.sh | sh

2.运行 Open WebUI

bash 复制代码
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

安装后,可以访问 Open WebUI at http://ip:8080

三、配置




四: 问题解决

1.open webui 白屏问题:

在白屏页面等待几分钟后,进入系统,右上角管理员面板中点击设置选项,找到外部连接,关闭OpenAI API接口,然后点击右下角保存即可。

相关推荐
Violet_Stray1 天前
【Ollama】docker离线部署Ollama+deepseek
docker·部署·ollama·deepseek
猿小猴子6 天前
在Window10 和 Ubuntu 24.04LTS 上 Ollama 在线或离线安装部署
ollama
暮乘白帝过重山13 天前
Ollama 在本地分析文件夹中的文件
前端·chrome·ollama
whltaoin15 天前
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
spring boot·ollama
漫谈网络16 天前
Ollama工具调用(Tool Calls)业务应用案例
linux·ai·aigc·工具调用·ollama·tool calls
漫谈网络17 天前
Ollama API 应用指南
ai·llm·aigc·api·ollama
Roc.Chang18 天前
释放 Mac 存储空间:Ollama 模型迁移到外接 NVMe 磁盘
macos·语言模型·大模型·llm·ollama
Cacciatore->19 天前
Ollama 部署与基本应用
java·人工智能·python·ollama
gblfy20 天前
DeepSeek + Dify + Ollama + Docker + Linux 私有化部署,构建你的专属私人 AI 助手
linux·docker·dify·本地部署·ollama·deepseek·私有化