MacOS本地部署Deepseek,不联网也可以使用AI,保护隐私

苹果笔记本本地部署deepseek主要用到Ollama与open-webui

1. 安装Ollama

"Ollama" 是一个轻量级的 AI 模型运行时环境(runtime),旨在简化在本地部署和使用大语言模型(LLM)的过程。它由 Vicarious 公司开发,支持多种 AI 模型(如 GPT-3、GPT-4 等),并允许用户通过简单的命令行或 API 接口与这些模型进行交互。

  • 网页搜索Ollama点击进入
  • 点击Download
  • 选择MacOS,点击download for MacOS (使用科学上网下载更快)
  • 下载的文件名为Ollama-darwin.zip,解压后得到一个羊驼图标的Ollama,正常安装(安装时选择move to Applications可以在启动台中找到), 安装完可以看到一个小羊驼图标。

2. 安装大模型

  • 在刚才的Ollama界面左上角,选择模型,可以看到许多大模型,我选择的是deepseek-r1
  • 选择参数版本,如果电脑配置一般可以选择1.5b,好的话可以选择32b或者更高都可以。

选择的参数版本越高运行的会更慢,但给出的答案相对好一些。我的电脑为M3 Max芯片,下载了一个7b和32b的,7b的速度很快,32b思考的速度要慢一些,并且使用32b时GPU是在全速运行的

  • 以7b为例,点击右侧的复制按钮, 复制代码ollama run deepseek-r1
  • 打开本地的命令行,用管理员权限进行下载,即sudo ollama run deepseek-r1,输入密码进行下载(下载速度稍慢)
  • 下载完成就可以进行对话了,但这样很不方便,接下来我们可以安装open-webui建立像ChatGPT一样的对话框

3. 安装docker

  • 网页搜索docker
  • 下载之后一键安装

4. 安装运行open-webui

  • 进入Github官网,可以从刚刚Ollama左上角第二个选项Github进入(点击小黑猫进入首页),也可以直接搜索进入首页

  • 搜索open-webui

  • 点击进入

  • 往下拉,找到How to Install后找到 If Ollama is on your computer, use this command:

  • 点击复制代码,打开命令行,同样用管理员身份进行下载,即

sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  • 等待下载完成
  • 到电脑右上角找到小船图标,点击Goto the dashboard
  • 此时就可以看到open-webui安装好了,点击Ports中的箭头就可以打卡对话界面
  • 在右上角可以选择安装的大模型进行应用。
  • open-webui示意图
  • 点击左上角可切换大模型

5. 查看GPU使用进程

  • 找到电脑自带的活动监视,器
  • 找到左上角的窗口,点击GPU历史记录即可查看
相关推荐
黑夜路人2 小时前
Claude Code + 国产模型GLM-4.6 安装指南 (for Windows/Mac)
windows·macos
索西引擎2 小时前
MacOS 若要启用系统扩展,你需要在 “恢复” 环境中修改安全性设置
macos
绒绒毛毛雨2 小时前
爬虫前奏--基于macos的ip代理池构建
爬虫·tcp/ip·macos
栗子飞啊飞3 小时前
如何实现大模型 “边生成边显示“
java·deepseek
游戏开发爱好者811 小时前
iOS 开发推送功能全流程详解 从 APNs 配置到上架发布的完整实践(含跨平台上传方案)
android·macos·ios·小程序·uni-app·cocoa·iphone
nenchoumi311915 小时前
LLM 论文精读(十二)DeepSeek-OCR: Contexts Optical Compression
人工智能·计算机视觉·llm·ocr·vlm·deepseek
world-wide-wait1 天前
mac下载wget
macos
笑尘pyrotechnic1 天前
【OC】UIKit常用组件适配iOS 26
macos·ios·cocoa
TF男孩1 天前
有关DeepSeek-OCR的一些实践与思考
deepseek