大家好,我是日拱一卒的攻城师不浪,致力于前沿科技探索,摸索小而美工作室。这是2025年输出的第10/100篇原创文章。
前言
本次教程不浪亲测有效,大家尽可放心跟着做!
这篇文章将展示如何在本地安装并运行 DeepSeek
,将其与 CodeGPT
结合配置,然后我们就可以开始利用本地DeepSeek
来增强软件开发工作流体验,而无需依赖于云服务。
一、VSCode中安装Ollama
要本地运行 DeepSeek,我们首先需要安装 Ollama
,它允许我们在机器上运行 LLM(大型语言模型)
,以及 CodeGPT
,CodeGPT是 VSCode 的扩展,用于将这些模型集成以提供编程辅助。
Ollama
是一个轻量级平台,它能够使本地运行 LLM 变得简单。
下载 Ollama
- 访问官方网站:
https://ollama.com
-
下载适用于您操作系统的安装程序(Windows、macOS 或 Linux)。
-
双击下载好的
exe
,如下图
验证安装
安装完成后,打开终端并运行:
css
ollama --version
如果 Ollama
安装正确,它将显示已安装的版本。
二、在VSCode中安装CodeGPT
-
打开 VSCode 并导航至 扩展市场 (
Ctrl + Shift + X
或在 macOS 上使用Cmd + Shift + X
)。 -
搜索 "CodeGPT" 并点击 安装。
安装好 Ollama
和 CodeGPT
后,我们现在就可以下载并配置 DeepSeek,开始在本地使用 AI 进行编程了。🚀
三、下载并设置模型
现在您已经成功安装了 Ollama 和 CodeGPT,接下来我们下载将在本地使用的DeepSeek大模型。
-
聊天模型:
deepseek-r1:1.5b
,该模型针对较小环境进行了优化,将在大多数计算机上平稳运行。 -
自动补全模型:
deepseek-coder:base
。该模型利用 Fill-In-The-Middle (FIM) 技术,允许它在您编写代码时提供智能自动补全建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。
注意:如果你的机器配置比较高端,可以下载
高b
模型,以更好的运用大模型的能力,具体配置可参考下图:
四、下载大模型deepseek-r1:1.5b
- 在 VSCode 中打开 CodeGPT,未登录的先登录;
- 导航至侧边栏的 本地 LLM 部分。
- 从可用选项中,选择 Ollama 作为本地 LLM 提供商。
- 一般电脑配置选择模型
deepseek-r1:1.5b
,由于我的电脑显卡是RTX4070
,所以我选择8b大模型
;
- 点击 下载 按钮。模型将自动开始下载。
下载完成后,CodeGPT 将自动安装该模型。安装完成后,继续到Local LLMs
选项栏中选中您安装的deepseek-r1:1.5b
即可,现在就可以开始与本地的模型进行交互了。
您现在可以轻松地向模型查询有关代码的问题。只需在编辑器中突出显示任何代码,使用 #
符号添加额外文件到您的查询中,并利用强大的命令快捷方式,例如:
/fix
--- 用于修复错误或在代码中提出改进建议。/refactor
--- 用于清理和改进代码的结构。/Explain
--- 获取任何代码片段的详细解释。
当然你也可以用中文
问它,它就会回复你中文,例如:/解释;
这个聊天模型非常适合协助解决具体问题或接收有关代码的建议。
五、下载自动补全大模型
为了增强代码自动补全,我们可以下载一个自动补全大模型deepseek-coder:base
。
-
在 VSCode 中打开一个 终端。
-
运行以下命令来拉取
deepseek-coder:base
模型:
csharp
ollama pull deepseek-coder:base
-
此命令将把自动补全模型下载到您的本地机器上。
-
下载完成后,返回到 CodeGPT 并导航至 自动补全模型 部分。
-
从可用模型列表中选择
deepseek-coder:base
。
选择后,您就可以开始编码了。当您输入时,模型将开始提供实时代码建议,帮助您轻松完成函数、方法甚至整个代码块。
设置好模型后,您现在就可以充分享受使用这些强大工具带来的全部能力,而无需依赖外部 API。
通过在本地机器上运行所有内容,还能确保您的隐私和对编程环境的控制。无需担心外部获取您的数据,一切保持安全和私密 👏
最后
OK,以上就是本地部署DeepSeek + VSCode的使用教程了,只要网速跟的上,几分钟就能搞定。
不浪创建了一个
AI&副业
社群,如果你有兴趣,添加我:brown_7778(备注AI),我拉你~