【DeepSeek】Mac m1电脑部署DeepSeek

一、电脑配置

个人电脑配置

二、安装ollama

简介:Ollama 是一个强大的开源框架,是一个为本地运行大型语言模型而设计的工具,它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型。

ollama官网,根据自己电脑的类型选择对应的下载安装程序,比如我这里选择 macos:

下载成功后,直接安装。

如何判断是否安装成功?

打开一个命令行终端,输入命令:ollama -v,显示版本信息,表示安装成功。

三、选择合适的模型

点击ollama-->models选项,可以查看支持运行的模型。

deepseek r1 有多种参数,通常我们macos 选择7b,8b参数即可,参数越大对显卡和内存要求越高,如果你是3090显卡,4090 显卡,可以选择32b,70b,参数越大,效果越好。当然磁盘占用也越大。

选择对应的蒸馏模型,按照下面的命令复制到ollama控制台

复制代码
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b

四、安装并运行

安装并运行对应的蒸馏模型,命令行执行:

ollama run deepseek-r1:8b

安装成功后,在控制台直接输入问题,即可得到回复:

命令行如何退出大模型对话?

输入:/bye

相关推荐
猫头虎5 小时前
如何解决 OpenClaw “Pairing required” 报错:两种官方解决方案详解
网络·windows·网络协议·macos·智能路由器·pip·scipy
AC赳赳老秦7 小时前
代码生成超越 GPT-4:DeepSeek-V4 编程任务实战与 2026 开发者效率提升指南
数据库·数据仓库·人工智能·科技·rabbitmq·memcache·deepseek
小白狮ww10 小时前
要给 OCR 装个脑子吗?DeepSeek-OCR 2 让文档不再只是扫描
人工智能·深度学习·机器学习·ocr·cpu·gpu·deepseek
realhuizhu19 小时前
为什么程序员配出的颜色像"斑斓的灰"?因为你还在靠直觉
前端开发·ai工具·ui设计·deepseek·程序员提升
逐梦苍穹1 天前
速通DeepSeek论文mHC:给大模型装上物理阀门的架构革命
人工智能·deepseek·mhc
皮卡车厘子1 天前
Mac 挂载目录
macos
良逍Ai出海1 天前
在 Windows & macOS 上安装 Claude Code,并使用第三方 Key 的完整教程
windows·macos
热爱生活的五柒1 天前
linux/mac/wsl如何使用claude code,并配置免费的硅基流动API?(官方的需要付费订阅)
linux·运维·macos
胖胖大王叫我来巡山2 天前
mac本地安装DataEase桌面版
macos
奋斗者1号2 天前
OpenClaw 部署方式对比:云端、WSL、Mac 本机、Ubuntu 虚拟机(2026年2月最新主流实践)
linux·ubuntu·macos