【Mac下通过Brew安装Ollama 】部署 DeepSeek 轻量模型(实测版)

文章目录

一、前言

若对您有帮助的话,请点赞收藏加关注哦,您的关注是我持续创作的动力!有问题请私信或联系邮箱:funian.gm@gmail.com

Ollama 是一款轻量级本地大模型部署工具,支持一键启动主流开源模型,无需复杂配置;DeepSeek 轻量模型(如 deepseek-r1:7b)则以「低资源占用+高性能」为特点,4.7GB 左右的体积在 Mac(尤其是 Apple Silicon 芯片机型)上运行流畅,非常适合本地开发测试、离线调试等场景。

本文基于 Ollama 0.12.6 版本(实测稳定),补充实际操作中遇到的「下载中断重试」「服务启动依赖」「版本命令差异」等问题,提供可落地的精准部署流程。

二、准备工作

(一)环境要求

  • 操作系统:macOS 12.0+(实测 Apple M1/M2/M3 芯片兼容,Intel 芯片需验证)
  • 硬件配置:≥8GB 内存(推荐 16GB 以上,避免卡顿),≥10GB 空闲磁盘(模型本身约 4.7GB,预留缓存空间)
  • 网络环境:需稳定外网(模型下载依赖 GitHub Container Registry,可能需要多次重试)

(二)工具准备

需提前安装 Homebrew(Mac 包管理工具),已安装可跳过:

bash 复制代码
# 安装命令(复制到终端执行)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

验证安装成功:

bash 复制代码
brew --version
# 成功输出示例:Homebrew 4.3.2(版本号可能不同,有输出即正常)

三、安装 Ollama(实测流程)

(一)Brew 安装与重试机制

通过 Brew 安装 Ollama,首次可能因网络波动失败,直接重试即可:

bash 复制代码
brew install ollama

实测可能遇到的问题

  • 报错 curl: (92) HTTP/2 PROTOCOL_ERROR:因网络中断导致包下载失败,重新执行 brew install ollama 即可(Brew 支持断点续传)。

安装成功的终端输出参考:

bash 复制代码
==> Pouring ollama--0.12.6.arm64_sequoia.bottle.tar.gz
==> Caveats
To start ollama now and restart at login:
  brew services start ollama
Or, if you don't want/need a background service you can just run:
  OLLAMA_FLASH_ATTENTION="1" OLLAMA_KV_CACHE_TYPE="q8_0" /opt/homebrew/opt/ollama/bin/ollama serve
==> Summary
🍺  /opt/homebrew/Cellar/ollama/0.12.6: 8 files, 27.8MB

(二)启动 Ollama 后台服务(关键步骤)

Ollama 依赖后台服务运行,必须启动服务否则无法与模型交互:

bash 复制代码
# 启动服务并设置开机自启
brew services start ollama

验证服务状态:

bash 复制代码
brew services list
# 输出中若有「ollama   started」即表示服务正常运行

(三)验证 Ollama 版本

确认安装的版本为 0.12.6(本文实测版本):

bash 复制代码
ollama --version
# 成功输出:ollama version is 0.12.6

四、部署 DeepSeek 轻量模型(解决命令差异问题)

(一)版本差异说明

Ollama 0.12.6 暂不支持 ollama search 命令(实测执行会报错 Error: unknown command "search" for "ollama"),需直接使用官方公布的模型标签拉取。

DeepSeek 适合 Mac 的轻量模型标签(实测可用):

  • 通用场景:deepseek-r1:7b(约 4.7GB,平衡性能与体积)
  • 代码场景:deepseek-coder:lite(约 1.5GB,轻量代码生成)
  • 基础场景:deepseek:lite(约 2.5GB,入门级通用模型)

(二)拉取并启动 deepseek-r1:7b(实测案例)

直接执行以下命令,Ollama 会自动下载模型并进入交互界面:

bash 复制代码
ollama run deepseek-r1:7b

实测拉取过程(需耐心等待,进度条满即完成):

bash 复制代码
pulling manifest 
pulling 96c415656d37: 100% ▕██████████████████▏ 4.7 GB                         
pulling c5ad996bda6e: 100% ▕██████████████████▏  556 B                         
pulling 6e4c38e1172f: 100% ▕██████████████████▏ 1.1 KB                         
pulling f4d24e9138dd: 100% ▕██████████████████▏  148 B                         
pulling 40fb844194b2: 100% ▕██████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
>>>  # 出现此符号表示进入模型交互界面

五、模型使用与验证(实测交互示例)

(一)基础对话测试

>>> 提示符后输入问题,模型会实时响应:

bash 复制代码
>>> 你好,介绍一下自己
Hello! 我是 DeepSeek-R1,一款由深度求索(DeepSeek)开发的轻量级大模型。我可以协助你解决问题、回答疑问,或者进行日常交流。有什么我能帮你的吗?😊

>>> 用 Python 写一个简单的冒泡排序
以下是 Python 实现的冒泡排序算法:

def bubble_sort(arr):
    n = len(arr)
    # 遍历所有数组元素
    for i in range(n):
        # 最后 i 个元素已经就位
        for j in range(0, n-i-1):
            # 遍历数组从 0 到 n-i-1
            # 交换如果当前元素大于下一个元素
            if arr[j] > arr[j+1]:
                arr[j], arr[j+1] = arr[j+1], arr[j]
    return arr

# 测试示例
arr = [64, 34, 25, 12, 22, 11, 90]
bubble_sort(arr)
print("排序后的数组:", arr)

(二)退出与重启

  • 退出交互 :输入 /exit 并回车,返回终端命令行。
  • 重启模型 :无需重新下载,直接执行 ollama run deepseek-r1:7b 即可快速启动。

(三)查看已安装模型

bash 复制代码
ollama list
# 实测输出(安装后显示):
# NAME              ID              SIZE    MODIFIED
# deepseek-r1:7b    8e6871999988    4.7 GB  10 minutes ago

六、常见问题解决(补充实测经验)

(一)Ollama 安装失败(curl: (92) PROTOCOL_ERROR

  • 原因:网络波动导致 Homebrew 从 GHCR 仓库拉取包中断。
  • 解决 :重新执行 brew install ollama,Brew 会自动续传或重新下载,多试几次即可成功。
  • 原因 :Ollama 0.12.6 版本未包含 search 功能(高版本已支持,低版本需手动查询)。
  • 解决
    1. 访问 Ollama 官方模型库:https://ollama.com/library
    2. 搜索「deepseek」获取最新模型标签(如 deepseek-r1:7b),直接用标签拉取。

(三)模型启动无响应(输入无反馈)

  • 原因:未启动 Ollama 后台服务,模型无法加载。
  • 解决 :执行 brew services start ollama,确认服务状态为 started 后重新启动模型。

(四)模型下载速度慢

  • 原因:境外服务器连接不稳定。
  • 解决:可尝试切换网络(如手机热点),或耐心等待(Ollama 支持断点续传,中途断网后重新执行命令会继续下载)。

七、总结

基于 Ollama 0.12.6 实测,Mac 部署 DeepSeek 轻量模型的核心流程为:

「Brew 安装 Ollama(带重试)→ 启动后台服务 → 用标签拉取 deepseek-r1:7b → 交互测试」。

重点注意:Ollama 服务必须启动,低版本无 search 命令需手动指定模型标签。deepseek-r1:7b 模型在 16GB 内存的 M1 Mac 上响应延迟约 1-3 秒,适合本地开发、离线调试或学习大模型交互逻辑。

后续可参考 Ollama 官方文档(https://ollama.com/docs)开发 API 接口、自定义模型参数或进行微调。

相关推荐
pe7er17 小时前
macOS 应用无法打开(权限问题)解决方案
macos·mac
NAGNIP18 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab19 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab19 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP1 天前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年1 天前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼1 天前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS1 天前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区1 天前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈1 天前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能