在Windows系统中安装Open WebUI并连接Ollama

一、Open WebUI简介与安装前准备

Open WebUI是一个开源的大语言模型(LLM)交互界面,支持本地部署与离线运行。通过它,用户可以在类似ChatGPT的网页界面中,直接操作本地运行的Ollama等大语言模型工具。
安装前的核心要求

  1. Python 3.11(必须严格使用此版本,更高版本可能不兼容)

  2. Node.js 20.x及以上(用于前端依赖管理)

  3. Ollama已安装并运行(若未安装,参考《Windows系统安装Ollama超简教程》)

二、详细安装步骤

步骤1:安装Python 3.11

  1. 访问 Python官网,下载Python 3.11.9安装包。

2.安装时务必勾选**"** Add Python 3.11 to PATH ",避免后续命令无法识别。

  1. 验证安装,输入python --version看到版本信息即表示安装成功:
复制代码
python --version

步骤2:安装Node.js与npm

  1. 从Node.js中文网(https://nodejs.org/zh-cn)下载最新LTS版本(如20.12.2)。

2.安装完成后验证:

复制代码
node -v && npm -v

步骤3:安装Open WebUI

打开cmd窗口,输入:

复制代码
pip install open-webui

等待一段时间就会自动安装完成,切记不要用python3.11以上的版本,否则可能出现不兼容的问题:

见到下图所示界面,就表示安装成功:

三、运行Open WebUI并连接Ollama

启动Open WebUI

复制代码
open-webui serve

打开另一个cmd窗口输入open-webui serve 启动open-webui之后,在浏览器输入默认访问地址:http://localhost:8080

若需自定义数据存储路径:

打开http://localhost:8080后,可以看到如下界面:

点击开始使用进入注册账号页面,输入账号密码注册即可:

进入网站后,在右上角选择本地的大模型,我们本地安装的是deepseek-r1.5,选择之后就可以进行对话了:

四、常见问题与优化

  1. 中文界面设置:登录后,在右上角设置中选择"简体中文"提升用户体验。
  2. 模型文件存储路径优化
    通过环境变量OLLAMA_MODELS将模型文件迁移至非系统盘(如D:\ollama_models),避免C盘爆满。
  3. 端口冲突处理
    若8080端口被占用,可通过--port参数指定其他端口:open-webui serve --port 8090

除了Open-webUI,还有一些其他的工具可以访问DeepSeek,有兴趣的朋友可以再去了解一下。

到目前为止,我们已经可以跟本地搭建DeepSeek进行对话了。不过一般的主机配置只能运行一些残血大模型,想要获取更智能的模型,DeepSeek官网api才是最佳选择。

相关推荐
win4r7 小时前
🚀DeepSeek又放大招!这个OCR模型让文档识别效率倍增!本地部署+客观实测DeepSeek-OCR!OCR识别准确率97%,支持100+语言,每天处理3
llm·aigc·deepseek
youcans_10 小时前
【DeepSeek论文精读】13. DeepSeek-OCR:上下文光学压缩
论文阅读·人工智能·计算机视觉·ocr·deepseek
a-62616 小时前
ai痕迹记录
deepseek·ai痕迹
飞哥数智坊17 小时前
DeepSeek-OCR:用“看图”代替“读文”,一种更像人类的上下文压缩方式
人工智能·deepseek
海的对岸6 天前
前端对接 deepseek 流式实时回答效果
deepseek
Mr.Lee jack8 天前
体验GPT-OSS-120B:在PH8平台上探索超大规模语言模型的强大能力
人工智能·gpt·语言模型·openai·deepseek
realhuizhu9 天前
分享一个知乎高赞回答生成AI指令:让技术人也能写出有深度的回答
知乎·ai工具·提示词工程·deepseek·内容创作
tongsound10 天前
ollama部署本地模型(deepseek,qwen,gemma3,...)
ollama·deepseek
l1t10 天前
DeepSeek辅助测试三种ODS电子表格写入程序
python·xlsx·ods·deepseek·xlsb
泥烟10 天前
使用Milvus和DeepSeek构建RAG demo
大模型·milvus·deepseek