VScode内接入deepseek包过程(本地部署版包会)

目录

[1. 首先得有vscode软件](#1. 首先得有vscode软件)

[2. 在我们的电脑本地已经部署了ollama,我将以qwen作为实验例子](#2. 在我们的电脑本地已经部署了ollama,我将以qwen作为实验例子)

[3. 在vscode上的扩展商店下载continue](#3. 在vscode上的扩展商店下载continue)

[4. 下载完成后,依次点击添加模型](#4. 下载完成后,依次点击添加模型)

[5. 在这里可以添加,各种各样的模型,选择我们的ollama](#5. 在这里可以添加,各种各样的模型,选择我们的ollama)

[6. 选择我们本地有的模型,后面的7b可以不用管,只是名字的差别,最后点击connect](#6. 选择我们本地有的模型,后面的7b可以不用管,只是名字的差别,最后点击connect)

[7. 创建完成后会出现一个配置文件,可以看到models这个部分,这里就是我们刚刚创建的模型,可以看到这上面的名字和我们本地的名字不相同,我们可以修改一下,如果相同的话可以不用修改](#7. 创建完成后会出现一个配置文件,可以看到models这个部分,这里就是我们刚刚创建的模型,可以看到这上面的名字和我们本地的名字不相同,我们可以修改一下,如果相同的话可以不用修改)

[8. 我的本地下的时0.5b版本,将model这里修改一下即可,上面的title只是一个名字可以不用管,保存一下](#8. 我的本地下的时0.5b版本,将model这里修改一下即可,上面的title只是一个名字可以不用管,保存一下)

[9. 此时就可以使用我们的模型了,你可以进行各种各样的对话,qwen的模型对话](#9. 此时就可以使用我们的模型了,你可以进行各种各样的对话,qwen的模型对话)

[10. 如果想要删除这个模型,可以直接在配置文件里删除即可,点击这个配置文件就可以出来](#10. 如果想要删除这个模型,可以直接在配置文件里删除即可,点击这个配置文件就可以出来)


在 VSCode 中集成本地部署的 DeepSeek-R1 模型可以显著提升开发效率,尤其是在需要实时访问 AI 模型进行推理任务时

1. 首先得有vscode软件

2. 在我们的电脑本地已经部署了ollama,我将以qwen作为实验例子

3. 在vscode上的扩展商店下载continue

4. 下载完成后,依次点击添加模型

5. 在这里可以添加,各种各样的模型,选择我们的ollama

6. 选择我们本地有的模型,后面的7b可以不用管,只是名字的差别,最后点击connect

也可以选择我们的自动,这个是自动识别你本地有的模型

7. 创建完成后会出现一个配置文件,可以看到models这个部分,这里就是我们刚刚创建的模型,可以看到这上面的名字和我们本地的名字不相同,我们可以修改一下,如果相同的话可以不用修改

8. 我的本地下的时0.5b版本,将model这里修改一下即可,上面的title只是一个名字可以不用管,保存一下

9. 此时就可以使用我们的模型了,你可以进行各种各样的对话,qwen的模型对话

这个是自动的模型对话

10. 如果想要删除这个模型,可以直接在配置文件里删除即可,点击这个配置文件就可以出来

将这一段删除就可以了,不要删多了


这样一个简单的deepseek接入vscode就完成了⭐

相关推荐
YYXZZ。。22 分钟前
PyTorch——搭建小实战和Sequential的使用(7)
人工智能·pytorch·python
四川兔兔25 分钟前
pytorch 与 张量的处理
人工智能·pytorch·python
AI蜗牛之家4 小时前
Qwen系列之Qwen3解读:最强开源模型的细节拆解
人工智能·python
王上上4 小时前
【论文阅读30】Bi-LSTM(2024)
论文阅读·人工智能·lstm
YunTM4 小时前
贝叶斯优化+LSTM+时序预测=Nature子刊!
人工智能·机器学习
舒一笑6 小时前
智能体革命:企业如何构建自主决策的AI代理?
人工智能
丁先生qaq6 小时前
热成像实例分割电力设备数据集(3类,838张)
人工智能·计算机视觉·目标跟踪·数据集
红衣小蛇妖7 小时前
神经网络-Day45
人工智能·深度学习·神经网络
KKKlucifer7 小时前
当AI遇上防火墙:新一代智能安全解决方案全景解析
人工智能
DisonTangor8 小时前
【小红书拥抱开源】小红书开源大规模混合专家模型——dots.llm1
人工智能·计算机视觉·开源·aigc