在Windows系统中安装Open WebUI并连接Ollama

一、Open WebUI简介与安装前准备

Open WebUI是一个开源的大语言模型(LLM)交互界面,支持本地部署与离线运行。通过它,用户可以在类似ChatGPT的网页界面中,直接操作本地运行的Ollama等大语言模型工具。
安装前的核心要求

  1. Python 3.11(必须严格使用此版本,更高版本可能不兼容)

  2. Node.js 20.x及以上(用于前端依赖管理)

  3. Ollama已安装并运行(若未安装,参考《Windows系统安装Ollama超简教程》)

二、详细安装步骤

步骤1:安装Python 3.11

  1. 访问 Python官网,下载Python 3.11.9安装包。

2.安装时务必勾选**"** Add Python 3.11 to PATH ",避免后续命令无法识别。

  1. 验证安装,输入python --version看到版本信息即表示安装成功:
复制代码
python --version

步骤2:安装Node.js与npm

  1. 从Node.js中文网(https://nodejs.org/zh-cn)下载最新LTS版本(如20.12.2)。

2.安装完成后验证:

复制代码
node -v && npm -v

步骤3:安装Open WebUI

打开cmd窗口,输入:

复制代码
pip install open-webui

等待一段时间就会自动安装完成,切记不要用python3.11以上的版本,否则可能出现不兼容的问题:

见到下图所示界面,就表示安装成功:

三、运行Open WebUI并连接Ollama

启动Open WebUI

复制代码
open-webui serve

打开另一个cmd窗口输入open-webui serve 启动open-webui之后,在浏览器输入默认访问地址:http://localhost:8080

若需自定义数据存储路径:

打开http://localhost:8080后,可以看到如下界面:

点击开始使用进入注册账号页面,输入账号密码注册即可:

进入网站后,在右上角选择本地的大模型,我们本地安装的是deepseek-r1.5,选择之后就可以进行对话了:

四、常见问题与优化

  1. 中文界面设置:登录后,在右上角设置中选择"简体中文"提升用户体验。
  2. 模型文件存储路径优化
    通过环境变量OLLAMA_MODELS将模型文件迁移至非系统盘(如D:\ollama_models),避免C盘爆满。
  3. 端口冲突处理
    若8080端口被占用,可通过--port参数指定其他端口:open-webui serve --port 8090

除了Open-webUI,还有一些其他的工具可以访问DeepSeek,有兴趣的朋友可以再去了解一下。

到目前为止,我们已经可以跟本地搭建DeepSeek进行对话了。不过一般的主机配置只能运行一些残血大模型,想要获取更智能的模型,DeepSeek官网api才是最佳选择。

相关推荐
belingud1 天前
不同模型回答差异的简单探讨
chatgpt·claude·deepseek
云道轩2 天前
DeepSeek补全IBM MQ 9.4 REST API 执行命令的PPT
deepseek·ibm mq
算家计算3 天前
DeepSeek R2因芯片问题再次延迟发布!千亿级大模型训练的算力之困
人工智能·芯片·deepseek
AI大模型4 天前
手把手教你本地部署DeepSeek:解锁私有化AI的无限可能
程序员·llm·deepseek
量子位4 天前
被曝蒸馏DeepSeek还造假!欧版OpenAI塌房了
openai·deepseek
Spider_Man5 天前
和AI畅聊不掉线:本地部署LLM聊天界面全攻略
javascript·llm·deepseek
Chaos_Wang_7 天前
ShadowKV 机制深度解析:高吞吐长上下文 LLM 推理的 KV 缓存“影子”方案
人工智能·语言模型·自然语言处理·chatgpt·deepseek
玄明Hanko7 天前
DeepSeek是不是名不副实?
人工智能·deepseek
知了一笑7 天前
AI编程:代码多,效果好?
人工智能·大模型·kimi·千问·deepseek