ubuntu22.04本地部署OpenWebUI

一、简介

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。

二、安装

方法 1:docker安装

注意

Open WebUI 需要 WebSocket 支持才能正常运行。确保您的网络配置允许 WebSocket 连接。

bash 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
# 支持GPU
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

安装后,访问http://ip:3000

方法 2:手动安装

1.安装uv

bash 复制代码
curl -LsSf https://astral.sh/uv/install.sh | sh

2.运行 Open WebUI

bash 复制代码
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

安装后,可以访问 Open WebUI at http://ip:8080

三、配置




四: 问题解决

1.open webui 白屏问题:

在白屏页面等待几分钟后,进入系统,右上角管理员面板中点击设置选项,找到外部连接,关闭OpenAI API接口,然后点击右下角保存即可。

相关推荐
大模型教程3 天前
Windows系统本地知识库构建:Cherry Studio+Ollama
llm·agent·ollama
Qiuner3 天前
快速入门LangChain4j Ollama本地部署与阿里百炼请求大模型
语言模型·langchain·nlp·llama·ollama
景天科技苑4 天前
【AI智能体开发】什么是LLM?如何在本地搭建属于自己的Ai智能体?
人工智能·llm·agent·智能体·ai智能体·ollama·智能体搭建
尽兴-9 天前
【10 分钟!M4 Mac mini 离线部署「私有 ChatGPT」完整实录】
macos·ai·chatgpt·大模型·ollama·私有化
成子不是橙子9 天前
Langchain | Ollama | Python快速上手使用LLM的DEMO
开发语言·python·langchain·ollama
深色風信子10 天前
SpringAI 本地调用 Ollama
rag·ollama·springai·springai ollama
大模型教程10 天前
AI 新玩法:GraphRAG × Ollama 打造更聪明的智能体
程序员·llm·ollama
tongsound13 天前
ollama部署本地模型(deepseek,qwen,gemma3,...)
ollama·deepseek
laizi_laizi13 天前
ollama+openwebui本地部署及踩坑记录
ollama·openwebui
深色風信子16 天前
SpringBoot 集成 LangChain4j 本地调用 Ollama
java·spring boot·spring·ollama·langchain4j