前言
一月初因为注册送500万token我第一次去了解了一下这个国产大模型,当时api放chatbox里用了一下我就把这个放那不管了,当时用上去完全没有GPT好用 现在deepseek热度太高了,网上相似的文章也有一些,但是每个人都有每个人的特色,多我一个也不算多
正文
安装ollama
首先我们进入ollama的官网
这里可以选择不同的系统安装,我这里是Linux mint所以直接选择Linux 这里给我们了一行安装命令,我们直接复制到终端打开
arduino
curl -fsSL https://ollama.com/install.sh | sh
等进度条结束后就是安装成功了 当然,这种方法安装速度是比较慢的,有一种快速的方法就是直接去星火应用商店下载
Windows的话直接下载exe文件双击安装就可以了(注意,Windows下ollama默认安装到C盘) 安装完成之后会自动创建环境变量,大家可以去终端输入ollama -v试一下能弹出版本号就是安装成功了
部署deepseek r1
安装完ollama之后对于deepseek的部署我们直接去ollama官网去复制命令到终端执行就可以了 我直接放在下面几个,大家直接复制就行
DeepSeek-R1-Distill-Qwen-1.5B
arduino
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
arduino
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
arduino
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
arduino
ollama run deepseek-r1:14b
配置vscode
打开vscode我们去安装拓展continue
然后点击这里
在这里添加大模型
在这里Provider我们选择ollama,但是model里面没有deepseek R1所以我们这里随便选择就可以了
点击connect,回到主页点击右上角的齿轮来到下面的页面
点击Open configuration file打开config.json文件,在这里找到我们刚刚添加的ollama,自己改成自己的大模型!
如果忘记了自己的大模型名字的去终端里面执行一下
ollama list
然后回到主页就可以用deepseek R1了
接下来我们测试一下
Okay!