保姆级教程:在无网络无显卡的Windows电脑的vscode本地部署deepseek

文章目录

  • [1 前言](#1 前言)
  • [2 部署流程](#2 部署流程)
    • [2.1 准备工作](#2.1 准备工作)
    • [2.2 Ollama](#2.2 Ollama)
      • [2.2.1 使用有网络的电脑下载Ollama](#2.2.1 使用有网络的电脑下载Ollama)
      • [2.2.2 安装Ollama(有网络的电脑)](#2.2.2 安装Ollama(有网络的电脑))
      • [2.2.3 安装Ollama(无网络的电脑)](#2.2.3 安装Ollama(无网络的电脑))
      • [2.2.4 安装验证](#2.2.4 安装验证)
      • [2.2.5 修改大模型安装位置](#2.2.5 修改大模型安装位置)
      • [2.2.6 下载Deepseek模型](#2.2.6 下载Deepseek模型)
    • [2.3 将deepseek部署到vscode](#2.3 将deepseek部署到vscode)
      • [2.3.1 下载插件的visx文件](#2.3.1 下载插件的visx文件)
      • [2.3.2 拷贝visx文件](#2.3.2 拷贝visx文件)
      • [2.3.3 在无网络的电脑中导入插件](#2.3.3 在无网络的电脑中导入插件)
      • [2.3.4 添加大模型](#2.3.4 添加大模型)
  • [3 总结](#3 总结)

1 前言

由于在公司中使用的云桌面是没有网络 的,所以在阅读部门大哥们的代码时无法使用ai工具,加上本人才疏学浅,阅读起来十分困难、效率不高,因此通过网上资料搜寻并总结出了在无网络的windows电脑中本地部署deepseek ,从而能够通过工具解释代码,进行愉快的阅读和开发

2 部署流程

2.1 准备工作

  • 一台无网络的windows电脑(虚拟机、云桌面)
  • 一台有网络的windows电脑

2.2 Ollama

首先需要通过Ollama下载需要部署的大模型到电脑中

2.2.1 使用有网络的电脑下载Ollama

我这里直接分享我网盘中的安装包:

Ollama安装包,提取码: jwj2

2.2.2 安装Ollama(有网络的电脑)

安装推荐使用命令行方式安装,因为直接双击exe文件安装的话,安装的位置默认会在C盘(一般是在C:\Users\用户名\AppData\Local\Ollama),使用命令行安装则可以制定安装的路径

1、在安装包OllamaSetup.exe所在目录按住Shift + 鼠标右键,点击弹窗中的在此处打开 Powershell 窗口
2、在弹出的PowerShell输入如下命令

powershell 复制代码
.\OllamaSetup.exe /DIR="D:\Ollama"

其中DIR的值为D:\Ollama,该值就是你想要安装的位置

3、回车后会弹出安装窗体,点击install等待安装完成

2.2.3 安装Ollama(无网络的电脑)

将下载好的安装包从有网络的电脑 拷贝到无网络的电脑 中,重复2.2.2中的步骤,在无网络的电脑中安装Ollama

2.2.4 安装验证

在Powershell中输入命令ollama,若出现如下打印则安装成功

2.2.5 修改大模型安装位置

有网络无网络的电脑 中都执行如下操作:

在环境变量中的新建用户变量

变量名:OLLAMA_MODELS

变量值:D:\Ollama\Models

其中变量值是大模型下载存储的路径,可以根据需要进行自定义,我这里就是存储在D:\Ollama\Models

这一步设置完一定要重新启动一下Ollama,配置才会生效

2.2.6 下载Deepseek模型

有网络的电脑 中执行以下步骤:

1、进入Ollama官网,点击菜单栏中的Models

搜索deepseek-r1并点击

可以根据需要以及电脑配置选择模型

由于我的电脑没有GPU,因此部署最小的1.5b的模型
2、复制
3、打开2.2.5中配置的大模型安装路径的目录,按Shift+鼠标右键,,点击弹窗中的在此处打开 Powershell 窗口

4、输出粘贴的命令ollama run deepseek-r1:1.5b并等待其下载完成,当出现如下界面则安装成功

同时,在指定了大模型安装的目录下会生成两个文件夹,如果指定的目录下没有这两个文件夹,则2.2.5的配置没有生效,模型安装在默认路径(C:\User\用户名\.ollama\models)

将这两个文件夹拷贝到2.2.5中配置的无网络电脑的大模型安装路径下

2.3 将deepseek部署到vscode

2.3.1 下载插件的visx文件

由于无网络的电脑 中无法直接通过vscode下载插件,只能通过vsix文件导入。

1、在有网络的电脑中 打开vscode,搜索continue,下载vsix文件

2、选择下载平台

我这里也给出vsix文件的网盘链接

continue.continue-1.0.11-win32-x64.vsix

提取码: 6n7n

2.3.2 拷贝visx文件

将下载好的vsix文件从有网络的电脑 拷贝到无网络的电脑

2.3.3 在无网络的电脑中导入插件

无网络的电脑 中,打开vscode,点击从vsix安装,安装continue插件

2.3.4 添加大模型

无网络的电脑 中,点击左侧continue插件图标,添加大模型

Provider选择Ollama,Model选择Autodetect,电脑会根据2.2.5步骤配置的用户变量的大模型路径自动检测有什么模型,点击Connect

出现以下界面后,则恭喜你成功在无网络的电脑 中的vscode本地部署了deepseek,进行愉快的代码阅读了!

3 总结

相关推荐
SHIPKING39333 分钟前
【机器学习&深度学习】什么是下游任务模型?
人工智能·深度学习·机器学习
子燕若水5 小时前
Unreal Engine 5中的AI知识
人工智能
极限实验室6 小时前
Coco AI 实战(一):Coco Server Linux 平台部署
人工智能
tan180°6 小时前
MySQL表的操作(3)
linux·数据库·c++·vscode·后端·mysql
杨过过儿6 小时前
【学习笔记】4.1 什么是 LLM
人工智能
程序视点6 小时前
Window 10文件拷贝总是卡很久?快来试试这款小工具,榨干硬盘速度!
windows
巴伦是只猫6 小时前
【机器学习笔记Ⅰ】13 正则化代价函数
人工智能·笔记·机器学习
大千AI助手6 小时前
DTW模版匹配:弹性对齐的时间序列相似度度量算法
人工智能·算法·机器学习·数据挖掘·模版匹配·dtw模版匹配
AI生存日记6 小时前
百度文心大模型 4.5 系列全面开源 英特尔同步支持端侧部署
人工智能·百度·开源·open ai大模型