本地部署DeepSeek R1大模型

一、安装软件

1.1 安装Ollama

你可以访问Ollama的官方网站https://ollama.com/download,选择适合你操作系统的安装包进行下载。老周这里是Mac系统,所以选择下载macOS系统。

1.2 安装cherry studio

前往官网https://cherry-ai.com/download下载对应操作系统的安装包


1.3 下载deepseek R1本地模型

直接前往Ollama官网:https://ollama.com/library/deepseek-r1

根据自己电脑的配置选择不同参数的模型,

查下自己MAC电脑的显存:

bash 复制代码
system_profiler SPDisplaysDataType | grep "VRAM"

根据自己电脑的配置选择不同参数的模型。

老周这里让 DeepSeek 帮我推荐使用哪个参数的模型。

根据推荐老周这里选择了8b参数的模型:

bash 复制代码
ollama run deepseek-r1:8b

打开终端(Mac OS)或运行(Windows,可以用win键+r快捷键弹出),粘贴刚刚复制的代码(ollama run deepseek-r1:8b)

接下来可能有点慢,测你家网速的时候到了。

下载完成后,你已经可以直接使用Deepseek R1这个大模型了。不过,为了让大家有更好的体验,我特别推荐使用Cherry Studio这个工具。它不仅能调用你本地下载的模型,还可以连接各种云端模型服务,使用起来非常便捷。

1.4 设置Cherry Studio

然后在聊天界面,选择你所要对话的大模型,就可以直接对话了。如果出现对话说明本地部署DeepSeek R1大模型成功了。如果出现404啥的说明你没有配置对API地址,检查下面这两个操作是否配置对了。

默认模型选择你下载好的模型~

我让DeepSeek帮我安排一个行程,推理阶段吃掉我一半的CPU、内存也只省2G左右。

相关推荐
小雨青年4 小时前
MateChat 进阶实战:打造零后端、隐私安全的“端侧记忆”智能体
前端·华为·ai·华为云·状态模式
paopao_wu6 小时前
腾讯HunyuanOCR开源端到端OCR-1B:本地部署与测试
ai·开源·ocr·hunyuan
带刺的坐椅8 小时前
Solon AI 开发学习10 - chat - 工具调用概念介绍
ai·llm·solon·tool-call
蓝耘智算10 小时前
如何选择合适的GPU算力服务商?企业AI算力采购指南
ai·gpu算力·蓝耘
蓝耘智算11 小时前
蓝耘元生代GPU算力调度云平台深度解析:高性价比算力云与GPU算力租赁首选方案
人工智能·ai·gpu算力·蓝耘
阿猿收手吧!11 小时前
【大模型】什么是大模型?vLLM是?模型部署?CUDA?
ai·llama
阿杰学AI11 小时前
AI核心知识19——大语言模型之SFT(简洁且通俗易懂版)
人工智能·ai·语言模型·aigc·监督微调
哥布林学者11 小时前
吴恩达深度学习课程三: 结构化机器学习项目 第二周:误差分析与学习方法(四)多任务学习
深度学习·ai
i查拉图斯特拉如是12 小时前
搭建本地大模型知识库
人工智能·ai·大模型·知识库·ollama
组合缺一12 小时前
Solon AI 开发学习11 - chat - 工具调用与定制(Tool Call)
人工智能·学习·ai·chatgpt·llm·solon·toolcall