Mac 本地部署 Ollama 并运行 Gemma 4 模型

一、什么是 Ollama

Ollama 是一个本地运行大语言模型的工具,支持 macOS / Linux / Windows。它把模型下载、运行、API 服务全部封装好,一条命令就能跑起来。

二、安装 Ollama

方式一:官网下载(推荐)

  1. 打开 ollama.com/download
  2. 点击 Download for macOS
  3. 下载后解压,将 Ollama.app 拖入「应用程序」文件夹
  4. 双击打开,菜单栏会出现 Ollama 图标,表示服务已启动

方式二:Homebrew 安装

bash 复制代码
brew install ollama

安装完成后启动服务:

bash 复制代码
ollama serve

验证安装

bash 复制代码
ollama --version

看到版本号即安装成功。

三、下载并运行 Gemma 4 模型

一条命令下载并运行

bash 复制代码
ollama run gemma4

首次运行会自动下载模型(约 5GB),下载完成后直接进入对话。之后再运行则跳过下载,直接启动。

输入问题即可聊天,输入 /bye 退出。

查看已下载的模型

bash 复制代码
ollama list

四、Ollama 常用命令

命令 说明
ollama serve 启动 Ollama 服务(桌面版自动启动)
ollama pull <模型名> 下载模型
ollama run <模型名> 运行模型并进入对话
ollama list 查看已下载的模型列表
ollama rm <模型名> 删除模型
ollama show <模型名> 查看模型详细信息
ollama ps 查看当前运行中的模型

五、通过 API 调用

Ollama 启动后会在 localhost:11434 提供 HTTP API。

健康检查

bash 复制代码
curl http://localhost:11434

返回 Ollama is running 表示正常。

非流式对话

bash 复制代码
curl -X POST http://localhost:11434/api/chat \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gemma4",
    "messages": [{"role": "user", "content": "你好"}],
    "stream": false
  }'

流式对话

bash 复制代码
curl -X POST http://localhost:11434/api/chat \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gemma4",
    "messages": [{"role": "user", "content": "介绍一下你自己"}],
    "stream": true
  }'

查看可用模型

bash 复制代码
curl http://localhost:11434/api/tags

六、运行状态

模型非常吃内存,目前一开始回复就会将我的mac内存吃满,我的是16g的macmini

相关推荐
爱吃的小肥羊2 小时前
2026 最新 Codex 如何使用指南:ChatGPT 订阅、CLI 安装、App 登录全流程
aigc·ai编程
阿杰学AI3 小时前
AI核心知识115—大语言模型之 自监督学习(简洁且通俗易懂版)
人工智能·学习·ai·语言模型·aigc·监督学习·自监督学习
爱吃的小肥羊4 小时前
Claude降智再被实锤!推理能力严重下滑,用户连夜跑路 Codex
人工智能·aigc·openai
AI攻城狮5 小时前
Adaptive Thinking 的代价:当 AI 自己决定"想多少"
人工智能·云原生·aigc
该用户已不存在5 小时前
Claude Mythos 发布,强到刚出道就被雪藏?
aigc·ai编程·claude
春末的南方城市5 小时前
比肩顶尖闭源模型!京东开源240亿参数多模态模型JoyAI-Image:统一理解/生成/编辑,重塑AI图像编辑。
人工智能·深度学习·机器学习·计算机视觉·aigc
树獭叔叔6 小时前
Claude Code Skill 系统:懒加载的 Agent 行动说明
后端·aigc·openai
AI攻城狮6 小时前
Vibe Coding 时代:为什么你不应该盲目启用 AI 编码插件
人工智能·云原生·aigc
青Cheng序员石头6 小时前
龙虾运行时安全部署 | NVIDIA NemoClaw 深度研究报告
后端·aigc·nvidia