用ollama在本地部署deepseek R1以及接入VScode平替Github Copilot

前言

一月初因为注册送500万token我第一次去了解了一下这个国产大模型,当时api放chatbox里用了一下我就把这个放那不管了,当时用上去完全没有GPT好用 现在deepseek热度太高了,网上相似的文章也有一些,但是每个人都有每个人的特色,多我一个也不算多

正文

安装ollama

首先我们进入ollama的官网

这里可以选择不同的系统安装,我这里是Linux mint所以直接选择Linux 这里给我们了一行安装命令,我们直接复制到终端打开

arduino 复制代码
curl -fsSL https://ollama.com/install.sh | sh

等进度条结束后就是安装成功了 当然,这种方法安装速度是比较慢的,有一种快速的方法就是直接去星火应用商店下载

Windows的话直接下载exe文件双击安装就可以了(注意,Windows下ollama默认安装到C盘) 安装完成之后会自动创建环境变量,大家可以去终端输入ollama -v试一下能弹出版本号就是安装成功了

部署deepseek r1

安装完ollama之后对于deepseek的部署我们直接去ollama官网去复制命令到终端执行就可以了 我直接放在下面几个,大家直接复制就行

DeepSeek-R1-Distill-Qwen-1.5B

arduino 复制代码
ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

arduino 复制代码
ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

arduino 复制代码
ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

arduino 复制代码
ollama run deepseek-r1:14b

配置vscode

打开vscode我们去安装拓展continue

然后点击这里

在这里添加大模型

在这里Provider我们选择ollama,但是model里面没有deepseek R1所以我们这里随便选择就可以了

点击connect,回到主页点击右上角的齿轮来到下面的页面

点击Open configuration file打开config.json文件,在这里找到我们刚刚添加的ollama,自己改成自己的大模型!

如果忘记了自己的大模型名字的去终端里面执行一下

复制代码
ollama list

然后回到主页就可以用deepseek R1了

接下来我们测试一下

Okay!

相关推荐
belingud3 小时前
不同模型回答差异的简单探讨
chatgpt·claude·deepseek
云道轩1 天前
DeepSeek补全IBM MQ 9.4 REST API 执行命令的PPT
deepseek·ibm mq
算家计算2 天前
DeepSeek R2因芯片问题再次延迟发布!千亿级大模型训练的算力之困
人工智能·芯片·deepseek
AI大模型3 天前
手把手教你本地部署DeepSeek:解锁私有化AI的无限可能
程序员·llm·deepseek
量子位3 天前
被曝蒸馏DeepSeek还造假!欧版OpenAI塌房了
openai·deepseek
Spider_Man4 天前
和AI畅聊不掉线:本地部署LLM聊天界面全攻略
javascript·llm·deepseek
Chaos_Wang_6 天前
ShadowKV 机制深度解析:高吞吐长上下文 LLM 推理的 KV 缓存“影子”方案
人工智能·语言模型·自然语言处理·chatgpt·deepseek
玄明Hanko6 天前
DeepSeek是不是名不副实?
人工智能·deepseek
知了一笑6 天前
AI编程:代码多,效果好?
人工智能·大模型·kimi·千问·deepseek