一,Deepseek本地部署方式
1,利用Ollama来部署
2,利用Cherry Studio来部署
二,通过Ollama本地部署Deepseek
1,什么是Ollama
Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如Llama 3、Phi 3、Mistral、Gemma等开源的大型语言模型。
2,下载Ollama

下载后直接安装即可,安装完后通过以下命令查看是否安装成功
java
//通过win+R 输入cmd,打开黑窗口后输入下面命令,可以查看安装的ollama版本号
ollama -v

3,在ollama上安装deepseek
在ollama官网上可以直接下载安装deepseek,根据自己的显卡性能选择不同大小的模型
不建议安装1.5版本,有点弱智,各个版本要求如下
复制deepseek安装命令到黑窗口,等待安装完成就可以对话了
java
//ollama上安装deepseek的命令
ollama run deepseek-r1:7b
//暂停deepseek安装命令
Ctrl+C
