在 Mac 上本地部署近期非常火爆的开源 AI 智能体 OpenClaw(原名 Clawdbot / Moltbot)并配置好模型的流程非常清晰。OpenClaw 作为一个底层 Agent 框架,它可以作为你的"手脚"去操作电脑、读取文件、收发消息,但它需要接入一个大语言模型(LLM)作为"大脑"。
以下是在 Mac 环境下(适配 M 系列芯片与 Intel 芯片)的保姆级完整部署指南:
第一阶段:基础环境准备
OpenClaw 是基于 Node.js 运行的,因此需要先配置好环境。
1. 安装包管理器 Homebrew(如已安装可跳过) 打开 Mac 的"终端"(Terminal),粘贴以下命令并回车:
bash
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
2. 安装 Node.js OpenClaw 要求 Node.js 版本至少为 v22(官方推荐 v24+)。在终端输入:
bash
brew install node
验证安装 :输入 node -v 和 npm -v,确保 node 版本在 v22 以上。
3. 配置 npm 全局目录(强烈建议,避免后续权限报错) 依次在终端执行以下命令:
bash
mkdir -p ~/.npm-global
npm config set prefix '~/.npm-global'
echo 'export PATH=~/.npm-global/bin:$PATH' >> ~/.zshrc
source ~/.zshrc
第二阶段:安装与初始化 OpenClaw
1. 全局安装 OpenClaw 在终端运行以下命令(建议使用最新版):
bash
npm install -g openclaw@latest
(如果习惯用 pnpm,也可以用 pnpm add -g openclaw@latest)
2. 初始化并安装守护进程 运行向导,它会自动帮你把 OpenClaw 配置为后台常驻服务(这样你的 AI 助理就能 24 小时在线):
bash
openclaw onboard --install-daemon
3. 启动本地网关
bash
openclaw gateway --port 18789
启动后,在浏览器中访问 http://localhost:18789 即可进入 OpenClaw 的 Web 控制台页面。如果是首次或远程访问,可能需要在终端运行 openclaw token generate 获取安全 Token 并在浏览器中填入。
第三阶段:配置 LLM 模型(最重要的一步)
你可以选择 云端 API(推荐) 或 纯本地开源模型,具体取决于你的 Mac 性能和隐私需求。
方案 A:使用云端大模型 API(强烈推荐,逻辑推理能力强)
实测中,让 OpenClaw 执行系统级命令或复杂任务时,小型本地模型容易犯错。推荐使用 DeepSeek、Claude 3.5/3.7 或 Gemini API 作为"大脑"。
-
获取对应模型厂商的 API Key(如 DeepSeek API 或 Google Gemini API)。
-
在浏览器打开的 OpenClaw Web 控制台中,找到 Settings(设置) -> Model Provider。
-
选择对应的服务商(如 DeepSeek 或 OpenAI),填入你的 API Key。
-
将默认模型(Default Model)设置为对应的模型名字(例如
deepseek-chat或gemini-2.5-flash)。 -
快捷指令方式 :你也可以直接通过终端调用配置:
bashopenclaw onboard跟随终端的交互式提示,选择 Provider 并粘贴 Key。
方案 B:使用纯本地模型(需 M1/M2/M3/M4 芯片且内存 16GB 以上)
如果你对隐私要求极高,希望断网也能用,可以搭配 Ollama 运行本地模型(推荐 Qwen-2.5 或 Llama-3 系列)。
-
下载并安装Ollama for Mac。
-
在终端拉取并运行一个本地模型(以 Qwen 2.5 7B 为例):
bashollama run qwen2.5:7b -
回到 OpenClaw,由于部分版本对非 OpenAI 原生接口的自动识别不够完美,建议使用 OpenAI 兼容模式 接入 Ollama:
- Provider : 选择
openai-completions或自定义 OpenAI 兼容节点。 - API Base URL : 填入
http://127.0.0.1:11434/v1 - API Key : 随便填(如
ollama),因为本地不需要验证。 - Model : 填入你在 Ollama 中下载的模型名,如
qwen2.5:7b。
- Provider : 选择
第四阶段:测试运行与授权
1. 基础对话与执行测试 在终端里输入一条指令,测试 AI 是否成功跑通:
bash
openclaw agent --message "帮我查看一下当前的 macOS 系统版本,并告诉我可用磁盘空间" --thinking high
如果它能准确返回你的系统信息,说明"大脑(LLM)"和"手脚(OpenClaw)"已经成功连接!
2. 开启系统权限 随着你的使用,OpenClaw 可能会去读取日历、发送邮件或执行自动化脚本。
- 当 macOS 弹出权限请求(如"终端请求访问日历"、"请求辅助功能权限")时,请在系统设置 -> 隐私与安全性中为其放行。
- 较新版本的 OpenClaw 默认关闭了部分高危工具权限,如果你发现它无法执行 Shell 命令,请在 WebUI 的技能(Skills/Plugins)设置中,将
Exec Tool(执行工具)权限打开。
3. 接入聊天软件(可选) 在 Web 控制台中,你可以将 OpenClaw 绑定到你常用的聊天软件(支持 Telegram、Discord、飞书、WhatsApp、iMessage 等)。绑定后,你就可以直接在手机微信/飞书/TG上给你的 Mac 发号施令,让它在家里帮你自动处理工作了。