亲测Windows部署Ollama+WebUI可视化

一. Ollama下载

登录Ollama官网(Ollama)点击Download进行下载

如果下载很慢可用以下地址下载:

https://github.com/ollama/ollama/releases/download/v0.5.7/OllamaSetup.exe

在DeepSeek官网上,你可以直接点击【model】

到达这个界面之后,点击进入到最近的【DeepSeek r1】模型接着点击【复制】按钮图标

在Windows的【开始菜单】点击【鼠标右键】-【PowerShell(管理员)】或者【终端管理员】

(模型会直接安装在C盘,请注意C盘的可用空间!)粘贴到【PowerShell(管理员】运行框,然后回车

完成之后就可以开始玩耍了!部署完成之后会有【Success】提示

安装后输入:http://localhost:11434/进行本地访问

本地终端启动服务:

复制代码
ollama serve

二. Open WebUI下载及安装

进入Open WebUI的GitHub界面

(https://github.com/open-webui/open-webui)进行下载

打开Webui可以使用PIP安装,PIP软件包安装程序。在进行之前,确保安装了python3.11以上的版本,否则不兼容

1、到python官网下载python3.11

链接:https://www.python.org/ftp/python/3.11.9/python-3.11.9-amd64.exe

2.双击安装包,开始安装,注意勾选[Add python 3.11 to Path]选项!!

3.选择Customize install选项,建议把安装路径改为其他盘(注意!安装路径中不能有中文)

4.测试python是否安装成功,按下win+r打开运行框,输入cmd,回车,在命令提示符中输入python显示如下:

5.pip换源,在cmd中输入:

复制代码
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple

6.安装open-webui

打开cmd,输入:

复制代码
pip install open-webui

安装完成后启动服务:

复制代码
open-webui serve

本地访问链接:

http://127.0.0.1:8080/

关于关机后如何终端(cmd)开启服务:

打开一个cmd启动ollama:

复制代码
ollama serve

再打另一个cmd启动图形化open-webui:

复制代码
open-webui serve

如果想要cmd直接进行对话(根据自己安装的版本来确定,我这里是7b)输入:

复制代码
ollama run deepseek-r1:7b
相关推荐
张世争8 小时前
windows clion MingW cmake 编译运行 FreeRTOS
windows·freertos·mingw·cmake·clion
AI 智能服务8 小时前
第6课__本地工具调用(文件操作)
服务器·人工智能·windows·php
IDC02_FEIYA9 小时前
SQL Server 2025数据库安装图文教程(附SQL Server2025数据库下载安装包)
数据库·windows
Kevin Wang72710 小时前
欧拉系统服务部署注意事项
网络·windows
取个名字太难了a12 小时前
初始化APC
windows
C++ 老炮儿的技术栈13 小时前
什么是通信规约
开发语言·数据结构·c++·windows·算法·安全·链表
Ankie Wan14 小时前
windows技巧:要将 Windows 资源管理器的默认查看方式设置为详细信息
windows·windows11·效率提升·文件夹·windows技巧·详细信息
拖拉斯旋风15 小时前
从零开始:使用 Ollama 在本地部署开源大模型并集成到 React 应用
前端·javascript·ollama
栀秋66615 小时前
智能驱动的 Git 提交:基于 Ollama 大模型的规范化提交信息生成方案
react.js·llm·ollama
ayaya_mana16 小时前
VS Code 远程开发:SSH连接与远程资源管理器的配置
linux·ide·windows·vscode·远程资源管理