用ollama在本地部署deepseek R1以及接入VScode平替Github Copilot

前言

一月初因为注册送500万token我第一次去了解了一下这个国产大模型,当时api放chatbox里用了一下我就把这个放那不管了,当时用上去完全没有GPT好用 现在deepseek热度太高了,网上相似的文章也有一些,但是每个人都有每个人的特色,多我一个也不算多

正文

安装ollama

首先我们进入ollama的官网

这里可以选择不同的系统安装,我这里是Linux mint所以直接选择Linux 这里给我们了一行安装命令,我们直接复制到终端打开

arduino 复制代码
curl -fsSL https://ollama.com/install.sh | sh

等进度条结束后就是安装成功了 当然,这种方法安装速度是比较慢的,有一种快速的方法就是直接去星火应用商店下载

Windows的话直接下载exe文件双击安装就可以了(注意,Windows下ollama默认安装到C盘) 安装完成之后会自动创建环境变量,大家可以去终端输入ollama -v试一下能弹出版本号就是安装成功了

部署deepseek r1

安装完ollama之后对于deepseek的部署我们直接去ollama官网去复制命令到终端执行就可以了 我直接放在下面几个,大家直接复制就行

DeepSeek-R1-Distill-Qwen-1.5B

arduino 复制代码
ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

arduino 复制代码
ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

arduino 复制代码
ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

arduino 复制代码
ollama run deepseek-r1:14b

配置vscode

打开vscode我们去安装拓展continue

然后点击这里

在这里添加大模型

在这里Provider我们选择ollama,但是model里面没有deepseek R1所以我们这里随便选择就可以了

点击connect,回到主页点击右上角的齿轮来到下面的页面

点击Open configuration file打开config.json文件,在这里找到我们刚刚添加的ollama,自己改成自己的大模型!

如果忘记了自己的大模型名字的去终端里面执行一下

复制代码
ollama list

然后回到主页就可以用deepseek R1了

接下来我们测试一下

Okay!

相关推荐
pursue.dreams20 小时前
DeepSeek-V4 即将登场,编程之王与架构革新能否重塑 AI 格局
deepseek
AC赳赳老秦1 天前
医疗数据安全处理:DeepSeek实现敏感信息脱敏与结构化提取
大数据·服务器·数据库·人工智能·信息可视化·数据库架构·deepseek
BitaHub20241 天前
深度推理力量:用 DeepSeek V3.2 Speciale 打造自动数据分析系统
人工智能·deepseek
且去填词1 天前
DeepSeek :基于 AST 与 AI 的遗留系统“手术刀”式治理方案
人工智能·自动化·llm·ast·agent·策略模式·deepseek
且去填词1 天前
构建基于 DeepEval 的 LLM 自动化评估流水线
运维·人工智能·python·自动化·llm·deepseek·deepeval
AC赳赳老秦1 天前
DeepSeek 私有化部署避坑指南:敏感数据本地化处理与合规性检测详解
大数据·开发语言·数据库·人工智能·自动化·php·deepseek
AC赳赳老秦2 天前
Unity游戏开发实战指南:核心逻辑与场景构建详解
开发语言·spring boot·爬虫·搜索引擎·全文检索·lucene·deepseek
且去填词2 天前
DeepSeek-R1 实战:数据分析
人工智能·python·mysql·语言模型·deepseek·structured data
且去填词3 天前
DeepSeek API 深度解析:从流式输出、Function Calling 到构建拥有“手脚”的 AI 应用
人工智能·python·语言模型·llm·agent·deepseek
AC赳赳老秦3 天前
Shell 脚本批量生成:DeepSeek 辅助编写服务器运维自动化指令
运维·服务器·前端·vue.js·数据分析·自动化·deepseek