目录
[1. 网络加速(Mac专属)](#1. 网络加速(Mac专属))
[2. API配置优化(config.yaml)](#2. API配置优化(config.yaml))
[1. 升级OpenClaw到最新稳定版](#1. 升级OpenClaw到最新稳定版)
[2. 关闭不必要功能,减少本地开销](#2. 关闭不必要功能,减少本地开销)
[3. Mac系统资源释放](#3. Mac系统资源释放)
[1. 模型选型:优先"快模型"](#1. 模型选型:优先“快模型”)
[2. 上下文瘦身(最有效)](#2. 上下文瘦身(最有效))
[1. 本地轻量模型兜底(减少API调用)](#1. 本地轻量模型兜底(减少API调用))
[2. 开启本地缓存(重复请求秒回)](#2. 开启本地缓存(重复请求秒回))
一、先定位:到底慢在哪
先测两个关键延迟,判断瓶颈:
- 模型 API 直测(排除OpenClaw本身)
bash
# 替换为你的API地址、Key、模型名
time curl https://api.openai.com/v1/chat/completions \
-H "Authorization: Bearer 你的API_KEY" \
-H "Content-Type: application/json" \
-d '{"model":"gpt-3.5-turbo","messages":[{"role":"user","content":"hello"}]}'
-
若curl本身就慢 :问题在网络/ API 服务商
-
若curl快、OpenClaw慢 :问题在本地配置/Agent调度
- OpenClaw日志查延迟
bash
openclaw logs | grep "response_time" | awk '{sum+=$NF; count++} END {print "平均延迟:", sum/count, "ms"}'
二、网络与API链路优化(最常见)
1. 网络加速(Mac专属)
-
优先用有线网,关闭Wi‑Fi自动切换、蓝牙、隔空投送
-
DNS 优化:系统设置→网络→高级→DNS,添加
bash223.5.5.5 223.6.6.6 8.8.8.8 -
关闭系统网络代理/防火墙临时测试,排除拦截
-
国内用户:用服务商国内节点/专属加速域名(如OpenAI、Anthropic的国内加速)
2. API配置优化(config.yaml)
打开配置:
bash
open ~/.openclaw/config.yaml
重点改这几项:
XML
model:
provider: openai # 或 anthropic、glm等
api_key: "你的密钥"
api_base: "https://api.openai.com/v1" # 用服务商最快的节点
model: "gpt-3.5-turbo" # 优先选turbo/极速版,比完整版快很多
temperature: 0.7
max_tokens: 1024 # 先设小,减少单次返回长度
timeout: 30 # 合理超时,避免无限等待
# 开启连接池与复用
http:
keepAlive: true
timeout: 30000
retry: 2 # 轻量重试,不加重延迟
三、本地环境与OpenClaw配置优化(Mac重点)
1. 升级OpenClaw到最新稳定版
bash
npm update -g openclaw
openclaw restart
3.23+版本大幅修复了Agent调度、会话卡顿、超时问题
2. 关闭不必要功能,减少本地开销
XML
# config.yaml 关闭非必需模块
agents:
defaults:
# 关闭自动压缩(避免本地CPU额外计算)
compaction:
mode: "default" # 不要用safeguard,更耗资源
# 关闭多余技能/工具
skills:
enabled:
- core # 只保留核心
# 注释掉 browser、file、system 等不常用的
# 限制并发
max_concurrent: 2
# 关闭自动记忆膨胀
memory:
max_history: 10 # 只保留最近10轮对话
auto_compact: true
3. Mac系统资源释放
-
关闭浏览器、视频、下载、虚拟机等后台 heavy 应用
-
活动监视器→CPU/内存,杀掉占用高的无关进程
-
M系列:确保Rosetta未强制运行(OpenClaw原生支持Apple Silicon)
四、上下文与模型选择(立竿见影)
1. 模型选型:优先"快模型"
-
日常用:
gpt-3.5-turbo、claude-3-haiku、glm-4-turbo、qwen-turbo -
复杂任务临时切:
gpt-4o-mini、claude-3-sonnet
极速版比完整版快3--10倍,token消耗更低
2. 上下文瘦身(最有效)
XML
model:
max_tokens: 1024 # 单次返回长度
max_context: 4096 # 总上下文窗口,越小越快
agents:
defaults:
memory:
max_history: 8 # 对话轮数越少,请求越快
auto_prune: true
-
手动:对话久了新开会话,避免历史堆积
-
自动:开启
auto_compact,自动合并长历史
五、进阶:本地缓存+混合模式(终极方案)
1. 本地轻量模型兜底(减少API调用)
用Ollama跑小模型(7B/8B)处理简单任务,复杂任务再切云端API:
XML
# config.yaml 配置双模型
models:
- name: local-fast
provider: ollama
api_base: "http://localhost:11434/v1"
model: "qwen2.5:7b"
- name: cloud-power
provider: openai
api_key: "xxx"
model: "gpt-3.5-turbo"
# 默认用本地,复杂任务自动切云端
agents:
defaults:
model: "local-fast"
fallback_model: "cloud-power"
2. 开启本地缓存(重复请求秒回)
XML
cache:
enabled: true
ttl: 86400 # 缓存1天
dir: "~/.openclaw/cache"
六、最终优化清单(按顺序执行)
-
升级OpenClaw到最新版
-
网络:有线+优选DNS+关闭代理
-
配置:
max_tokens=1024、max_history=10、关闭多余技能 -
模型:切
turbo/haiku极速版 -
系统:关闭后台,释放内存/CPU
-
进阶:本地小模型兜底+缓存