deepseek 本地部署

deepseek 本地部署

纯新手教学,手把手5分钟带你在本地部署一个私有的deepseek,再也不用受网络影响。流畅使用deepseek!!!

如果不想看文章,指路:Deep seek R1本地部署 小白超详细教程,请大家多多投币,不胜感激~~

Ollama 下载安装

  1. Ollama官网指路:Ollama,下载这步都会就没必要截图了,如果下载的慢建议科学上网,多试试。

  2. 在C盘以外的盘新建一个Ollama 文件夹存放ollama的安装位置(为什么要这样做,因为ollama不能指定安装位置)。

  3. 注意下载完成后不要立刻点击安装,将下载的可行性程序(OllamaSetup.exe)在文件资源管理器中打开,输入cmd

  4. 在命令行中执行如下命令:ollamasetup.exe /DIR=+文件夹路径,这个文件夹的路径就是你创建的Ollama文件夹。

  5. 指定位置安装后如下图所示:

  6. 现在要修改模型默认下载的位置(因为模型下载也是默认在C盘的,但是一般模型体积会很大,C盘吃不消的),在C盘以外的盘新建一个ollamaimagers 文件夹存放ollama的安装位置。

  7. 编辑系统环境变量:OLLAMA_MODELS,完成后,保存重启电脑,让环境变量生效。

小结:现在已经完成了Ollama指定位置的安装,和模型指定位置的安装

模型下载

  1. 模型网址链接:deepseek-r1

  2. 根据你自己的电脑配置,选择合适的模型进行下载,笔者这里使用的为1.5b模型,在命令行窗口中输入:ollama run deepseek-r1:1.5b

  3. 中途如果下载很慢,可以按ctrl + c结束下载,再运行模型下载的命令,会接着继续下载。

  4. 成功下载后,即可与本地deepseek对话。

附件

这是由deepseek推荐的各个模型的显卡配置:

模型规模 推荐显存(推理) 推荐显卡(推理) 推荐显存(训练) 推荐显卡(训练) 备注
1.5B ≥4GB GTX 1660 (6GB)、RTX 3050 (8GB) ≥8GB RTX 3060 (12GB)、RTX 2080 Ti (11GB) FP16推理,训练需额外显存。
7B ≥16GB RTX 3090 (24GB)、RTX 4090 (24GB) ≥24GB 单卡A100 40GB、双RTX 3090(并行) 无量化时需24GB显存;4位量化可降至约8GB,单卡RTX 3090即可推理。
8B ≥16GB RTX 3090 (24GB)、Tesla T4 (16GB) ≥32GB 双A100 40GB(并行) 需注意T4可能因带宽不足导致速度较慢。
14B ≥28GB 单卡A100 40GB、双RTX 3090(并行) ≥56GB 双A100 40GB(并行)或四RTX 3090 4位量化推理需约14GB,单卡RTX 3090可运行。
32B ≥64GB(FP16) 双A100 40GB(并行)、四RTX 3090 ≥128GB 四A100 80GB集群、多卡H100 需模型并行;4位量化后显存降至约32GB,单A100 40GB可推理。
70B ≥140GB(FP16) 四A100 40GB(并行) ≥280GB 专业集群(如8xA100 80GB) 4位量化后显存约35GB,单A100 40GB可推理,但需优化库(如vLLM)。
671B ≥1.3TB(FP16) 大规模分布式系统(如TPU Pod) ≥2.6TB 超算集群(数百张A100/H100) 仅限企业和研究机构;需分布式训练框架(如DeepSpeed、Megatron-LM)。

Ollama 命令

  1. 输入ollama help,即可看到命令帮助,这里最常用的命令就是:ollama listollama run
  2. ollama list:查看下载的所有模型
  3. ollama run:运行你下再的模型,命令后面跟模型的名称,如:ollama run deepseek-r1:1.5b,即可重新开始对话。
  4. ollama rm:删除模型,命令后面跟模型的名称,如:ollama rm deepseek-r1:1.5b
相关推荐
神云瑟瑟9 小时前
spring ai对接deepseek
spring ai·deepseek
AC赳赳老秦16 小时前
2026国产算力新周期:DeepSeek实战适配英伟达H200,引领大模型训练效率跃升
大数据·前端·人工智能·算法·tidb·memcache·deepseek
OPEN-Source21 小时前
大模型实战:搭建一张“看得懂”的大模型应用可观测看板
人工智能·python·langchain·rag·deepseek
AC赳赳老秦2 天前
代码生成超越 GPT-4:DeepSeek-V4 编程任务实战与 2026 开发者效率提升指南
数据库·数据仓库·人工智能·科技·rabbitmq·memcache·deepseek
小白狮ww2 天前
要给 OCR 装个脑子吗?DeepSeek-OCR 2 让文档不再只是扫描
人工智能·深度学习·机器学习·ocr·cpu·gpu·deepseek
realhuizhu2 天前
为什么程序员配出的颜色像"斑斓的灰"?因为你还在靠直觉
前端开发·ai工具·ui设计·deepseek·程序员提升
逐梦苍穹2 天前
速通DeepSeek论文mHC:给大模型装上物理阀门的架构革命
人工智能·deepseek·mhc
realhuizhu4 天前
你有多少次对着设计稿说"感觉不对,但说不上来"?
提示词工程·设计效率·deepseek·ai设计工具·品牌logo
AC赳赳老秦5 天前
DeepSeek一体机部署:中小企业本地化算力成本控制方案
服务器·数据库·人工智能·zookeeper·时序数据库·terraform·deepseek
Elwin Wong5 天前
浅析DeepSeek-OCR v1&v2
人工智能·大模型·llm·ocr·deepseek