史上最简单open-webui安装方式!!!

史上最简单open-webui安装方式

一、安装python3.11

这里需要注意,不要用python3.11以上的版本,否则会不兼容!!!

1、到python官网下载python3.11

链接:https://www.python.org/ftp/python/3.11.9/python-3.11.9-amd64.exe

2.双击安装包,开始安装,注意勾选[Add python 3.11 to Path]选项!!!

3.选择Customize install选项,建议把安装路径改为其他盘(注意!安装路径中不能有中文!!!)

二、测试python

1、按下win+r打开运行框,输入cmd,回车

2、在命令提示符中输入python

3、如果正确安装,将会显示:

3、输入exit()退出python

4、输入pip list,如果安装正确,将会显示:


三、pip换源

在cmd中输入:

python 复制代码
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple

四、安装open-webui

1、打开cmd,输入:

python 复制代码
pip install open-webui

此时,我们会看到不断有新的包被安装

2、等待过程结束后,输入:

python 复制代码
open-webui serve

不出意外的话,就要出意外了:

python 复制代码
ERROR: can not connect to "http://hf-huggingface.co" is your computer offline?

五、解决can not connet问题

1、出现以上问题是因为国内访问国外网站信号不好

2、解决方案:

打开cmd,输入:

python 复制代码
pip install open-webui==0.2.0

3、安装完成后,打开cmd输入:

python 复制代码
open-webui serve

将会显示:

安装成功后,显示:


六、升级open-webui

打开cmd,输入:

python 复制代码
pip install open-webui --upgrade

七、运行ollama+open-webui

1、打开cmd,输入:

python 复制代码
ollama serve

2、打开另一个cmd,输入:

python 复制代码
open-webui serve

3、访问链接:

open-webui

网站截图:

登陆界面截图:


八、docker安装open-webui

1.如果您的计算机上安装了Ollama,可以使用以下命令:

python 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

2.如果Ollama在另一台服务器上,请使用以下命令:

连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:

python 复制代码
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要使用Nvidia GPU支持运行Open WebUI,请使用以下命令:

python 复制代码
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

3.带有捆绑Ollama支持的Open WebUI安装

此安装方法使用一个单独的容器映像,将Open WebUI与Ollama捆绑在一起,通过单个命令实现简化设置。根据您的硬件设置选择适当的命令:

使用GPU支持:通过运行以下命令利用GPU资源

python 复制代码
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama 
相关推荐
kali-Myon3 分钟前
2025春秋杯网络安全联赛冬季赛-day1
java·sql·安全·web安全·ai·php·web
Ryan老房7 分钟前
智能家居AI-家庭场景物体识别标注实战
人工智能·yolo·目标检测·计算机视觉·ai·智能家居
2401_836235867 分钟前
财务报表识别产品:从“数据搬运”到“智能决策”的技术革命
人工智能·科技·深度学习·ocr·生活
程序媛徐师姐9 分钟前
Python基于爬虫的网络小说数据分析系统【附源码、文档说明】
爬虫·python·python爬虫·网络小说数据分析系统·pytho网络小说数据分析系统·python爬虫网络小说·python爬虫的网络小说数据
清水白石00816 分钟前
深入解析 LRU 缓存:从 `@lru_cache` 到手动实现的完整指南
java·python·spring·缓存
JaydenAI20 分钟前
[LangChain之链]LangChain的Chain——由Runnable构建的管道
python·langchain
kali-Myon21 分钟前
2025春秋杯网络安全联赛冬季赛-day3
python·安全·web安全·ai·php·web·ctf
ghostwritten25 分钟前
Cursor 代码库索引三剑客:Local、Worktree、Cloud 指南
ai·cursor
AbsoluteLogic26 分钟前
Python——彻底明白Super() 该如何使用
python
小猪咪piggy30 分钟前
【Python】(4) 列表和元组
开发语言·python