win11本地部署deepseek大模型(安装ollama+docker+open-webui)最终实现自己的项目可通过API调用投喂数据后的模型

硬件配置:笔记本win11,内存32G,CPU锐龙7 ,无独显;只能考虑deepseek-r1:1.5b模型。

第一步:安装Ollama

此处不过多累赘了,https://ollama.com/官网选择对应的系统版本下载即可。

需要注意的是直接安装是安装到C盘,也可以通过命令安装到D盘。

通过 "OllamaSetup.exe /dir="D:\Program Files\Ollama"命令可以指定Ollama安装目录

复制代码
C:\Users\weijian>d:
D:\>cd "Program Files"
D:\Program Files>OllamaSetup.exe /dir="D:\Program Files\Ollama"

安装成功后,再下载deepseek-r1的模型(并保存在 C 盘,C:\Users<username>.ollama\models 如果想更改默认路径,可以通过设置ollama_models进行修改,然后重启终端,重启 ollama 服务)。

复制代码
ollama run deepseek-r1:1.5b

此处因为我下载完成了,第一次执行时候等待完成100%即可。

第二步:安装docker

安装之前准备工作

1 CPU开启虚拟化

没有开启的需要通过BIOS进行开启,这去取决于每个人的电脑,不同的品牌操作起来不一样

2启用关闭Windows功能

官网直接下载安装https://www.docker.com/

第三步:部署open-webui

开源open webUI 官网🏡 Home | Open WebUI

docker方式安装

复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

完成后访问http://localhost:3000/

第一次登录需要注册管理员,进入后台发现页面非常友好且功能强大。

在工作空间内可以添加知识库,添加模型(基础模型+知识库)。

第四步:关于API调用问题

ollama的API调用 GitHub - ollama/ollama: Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2, and other large language models.

postman测试

open-webui的API调用

https://docs.openwebui.com/getting-started/api-endpoints/

postman测试

最后总结,部署还有其他方式 Linux系统 sglang/vllm。

相关推荐
就是这么拽呢3 分钟前
论文查重低但AIGC率高,如何补救?
论文阅读·人工智能·ai·aigc
媒介发稿小能手35 分钟前
技术视角下的品牌传播范式迁移:当“搜索引擎优化”让位于“媒体收录逻辑”
大数据·搜索引擎·ai·产品运营·媒体
xinlianyq38 分钟前
2026 边缘智能的崛起:端云协同架构下的“词元”调度艺术
人工智能·架构·api
他们叫我技术总监1 小时前
零依赖!FineReport11 快速对接 TDengine 数据库:从驱动部署到报表实现
大数据·数据库·ai·tdengine
北冥有羽Victoria1 小时前
OpenCLI 操作网页 从0到1完整实操指南
vscode·爬虫·python·github·api·ai编程·opencli
bloglin999992 小时前
docker logs 如何一直监听日志输出
运维·docker·容器
说实话起个名字真难啊2 小时前
Docker 入门之网络基础
网络·docker·php
哥布林学者3 小时前
深度学习进阶(六)归纳偏置与蒸馏
机器学习·ai
竹之却3 小时前
【Agent-阿程】AI先锋杯·14天征文挑战第14期-第2天-大模型部署与优化实战
人工智能·ai·大模型·边缘计算·剪枝·优化·蒸馏
❀͜͡傀儡师3 小时前
使用 Docker 部署 Neko 自托管虚拟浏览器(Firefox)
docker·容器·firefox