【Mac下通过Brew安装Ollama 】部署 DeepSeek 轻量模型(实测版)

文章目录

一、前言

若对您有帮助的话,请点赞收藏加关注哦,您的关注是我持续创作的动力!有问题请私信或联系邮箱:funian.gm@gmail.com

Ollama 是一款轻量级本地大模型部署工具,支持一键启动主流开源模型,无需复杂配置;DeepSeek 轻量模型(如 deepseek-r1:7b)则以「低资源占用+高性能」为特点,4.7GB 左右的体积在 Mac(尤其是 Apple Silicon 芯片机型)上运行流畅,非常适合本地开发测试、离线调试等场景。

本文基于 Ollama 0.12.6 版本(实测稳定),补充实际操作中遇到的「下载中断重试」「服务启动依赖」「版本命令差异」等问题,提供可落地的精准部署流程。

二、准备工作

(一)环境要求

  • 操作系统:macOS 12.0+(实测 Apple M1/M2/M3 芯片兼容,Intel 芯片需验证)
  • 硬件配置:≥8GB 内存(推荐 16GB 以上,避免卡顿),≥10GB 空闲磁盘(模型本身约 4.7GB,预留缓存空间)
  • 网络环境:需稳定外网(模型下载依赖 GitHub Container Registry,可能需要多次重试)

(二)工具准备

需提前安装 Homebrew(Mac 包管理工具),已安装可跳过:

bash 复制代码
# 安装命令(复制到终端执行)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

验证安装成功:

bash 复制代码
brew --version
# 成功输出示例:Homebrew 4.3.2(版本号可能不同,有输出即正常)

三、安装 Ollama(实测流程)

(一)Brew 安装与重试机制

通过 Brew 安装 Ollama,首次可能因网络波动失败,直接重试即可:

bash 复制代码
brew install ollama

实测可能遇到的问题

  • 报错 curl: (92) HTTP/2 PROTOCOL_ERROR:因网络中断导致包下载失败,重新执行 brew install ollama 即可(Brew 支持断点续传)。

安装成功的终端输出参考:

bash 复制代码
==> Pouring ollama--0.12.6.arm64_sequoia.bottle.tar.gz
==> Caveats
To start ollama now and restart at login:
  brew services start ollama
Or, if you don't want/need a background service you can just run:
  OLLAMA_FLASH_ATTENTION="1" OLLAMA_KV_CACHE_TYPE="q8_0" /opt/homebrew/opt/ollama/bin/ollama serve
==> Summary
🍺  /opt/homebrew/Cellar/ollama/0.12.6: 8 files, 27.8MB

(二)启动 Ollama 后台服务(关键步骤)

Ollama 依赖后台服务运行,必须启动服务否则无法与模型交互:

bash 复制代码
# 启动服务并设置开机自启
brew services start ollama

验证服务状态:

bash 复制代码
brew services list
# 输出中若有「ollama   started」即表示服务正常运行

(三)验证 Ollama 版本

确认安装的版本为 0.12.6(本文实测版本):

bash 复制代码
ollama --version
# 成功输出:ollama version is 0.12.6

四、部署 DeepSeek 轻量模型(解决命令差异问题)

(一)版本差异说明

Ollama 0.12.6 暂不支持 ollama search 命令(实测执行会报错 Error: unknown command "search" for "ollama"),需直接使用官方公布的模型标签拉取。

DeepSeek 适合 Mac 的轻量模型标签(实测可用):

  • 通用场景:deepseek-r1:7b(约 4.7GB,平衡性能与体积)
  • 代码场景:deepseek-coder:lite(约 1.5GB,轻量代码生成)
  • 基础场景:deepseek:lite(约 2.5GB,入门级通用模型)

(二)拉取并启动 deepseek-r1:7b(实测案例)

直接执行以下命令,Ollama 会自动下载模型并进入交互界面:

bash 复制代码
ollama run deepseek-r1:7b

实测拉取过程(需耐心等待,进度条满即完成):

bash 复制代码
pulling manifest 
pulling 96c415656d37: 100% ▕██████████████████▏ 4.7 GB                         
pulling c5ad996bda6e: 100% ▕██████████████████▏  556 B                         
pulling 6e4c38e1172f: 100% ▕██████████████████▏ 1.1 KB                         
pulling f4d24e9138dd: 100% ▕██████████████████▏  148 B                         
pulling 40fb844194b2: 100% ▕██████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
>>>  # 出现此符号表示进入模型交互界面

五、模型使用与验证(实测交互示例)

(一)基础对话测试

>>> 提示符后输入问题,模型会实时响应:

bash 复制代码
>>> 你好,介绍一下自己
Hello! 我是 DeepSeek-R1,一款由深度求索(DeepSeek)开发的轻量级大模型。我可以协助你解决问题、回答疑问,或者进行日常交流。有什么我能帮你的吗?😊

>>> 用 Python 写一个简单的冒泡排序
以下是 Python 实现的冒泡排序算法:

def bubble_sort(arr):
    n = len(arr)
    # 遍历所有数组元素
    for i in range(n):
        # 最后 i 个元素已经就位
        for j in range(0, n-i-1):
            # 遍历数组从 0 到 n-i-1
            # 交换如果当前元素大于下一个元素
            if arr[j] > arr[j+1]:
                arr[j], arr[j+1] = arr[j+1], arr[j]
    return arr

# 测试示例
arr = [64, 34, 25, 12, 22, 11, 90]
bubble_sort(arr)
print("排序后的数组:", arr)

(二)退出与重启

  • 退出交互 :输入 /exit 并回车,返回终端命令行。
  • 重启模型 :无需重新下载,直接执行 ollama run deepseek-r1:7b 即可快速启动。

(三)查看已安装模型

bash 复制代码
ollama list
# 实测输出(安装后显示):
# NAME              ID              SIZE    MODIFIED
# deepseek-r1:7b    8e6871999988    4.7 GB  10 minutes ago

六、常见问题解决(补充实测经验)

(一)Ollama 安装失败(curl: (92) PROTOCOL_ERROR

  • 原因:网络波动导致 Homebrew 从 GHCR 仓库拉取包中断。
  • 解决 :重新执行 brew install ollama,Brew 会自动续传或重新下载,多试几次即可成功。
  • 原因 :Ollama 0.12.6 版本未包含 search 功能(高版本已支持,低版本需手动查询)。
  • 解决
    1. 访问 Ollama 官方模型库:https://ollama.com/library
    2. 搜索「deepseek」获取最新模型标签(如 deepseek-r1:7b),直接用标签拉取。

(三)模型启动无响应(输入无反馈)

  • 原因:未启动 Ollama 后台服务,模型无法加载。
  • 解决 :执行 brew services start ollama,确认服务状态为 started 后重新启动模型。

(四)模型下载速度慢

  • 原因:境外服务器连接不稳定。
  • 解决:可尝试切换网络(如手机热点),或耐心等待(Ollama 支持断点续传,中途断网后重新执行命令会继续下载)。

七、总结

基于 Ollama 0.12.6 实测,Mac 部署 DeepSeek 轻量模型的核心流程为:

「Brew 安装 Ollama(带重试)→ 启动后台服务 → 用标签拉取 deepseek-r1:7b → 交互测试」。

重点注意:Ollama 服务必须启动,低版本无 search 命令需手动指定模型标签。deepseek-r1:7b 模型在 16GB 内存的 M1 Mac 上响应延迟约 1-3 秒,适合本地开发、离线调试或学习大模型交互逻辑。

后续可参考 Ollama 官方文档(https://ollama.com/docs)开发 API 接口、自定义模型参数或进行微调。

相关推荐
北青网快讯3 小时前
CDN5上线AI智能防御系统,为香港CDN加速服务注入新一代安全与智能动力
人工智能·安全
IT_陈寒3 小时前
Python 3.12震撼发布:5大性能优化让你的代码提速50%,第3点太香了!
前端·人工智能·后端
啥都不懂的小小白3 小时前
PLSQL 连接本地 Oracle 数据库报 ORA-12514
oracle·plsql·1024程序员节
热心网友俣先生3 小时前
2025年第六届MathorCup大数据竞赛赛题浅析-助攻快速选题
1024程序员节
木头左4 小时前
蒙特卡洛模拟优化ETF网格化动态止盈参数集实现指南
1024程序员节
sunyanchun4 小时前
gitlab上传新仓库,保留原仓库提交记录,原仓库远程地址已经失效,只有本机还有提交记录
gitlab·1024程序员节
YUFENGSHI.LJ4 小时前
Flutter 高性能 Tab 导航:懒加载与状态保持的最佳实践
开发语言·flutter·1024程序员节
恋猫de小郭4 小时前
今年各大厂都在跟进的智能眼镜是什么?为什么它突然就成为热点之一?它是否是机会?
android·前端·人工智能
cg_ssh4 小时前
Docker 中使用Nginx 一个端口启动多个前端项目
1024程序员节