目录
[1. 硅基流动(SiliconFlow)](#1. 硅基流动(SiliconFlow))
[2. 智谱 AI(GLM 系列)](#2. 智谱 AI(GLM 系列))
[3. 百度千帆(ERNIE 系列)](#3. 百度千帆(ERNIE 系列))
[4. 讯飞星火](#4. 讯飞星火)
[5. 阿里云百炼(Model Studio / 通义千问系列为主)](#5. 阿里云百炼(Model Studio / 通义千问系列为主))
[Moonshot AI](#Moonshot AI)
[火山引擎(字节豆包 / 方舟平台)](#火山引擎(字节豆包 / 方舟平台))
[1. Groq(极速推理)](#1. Groq(极速推理))
[2. NVIDIA NIM(准无限)](#2. NVIDIA NIM(准无限))
[3. Cerebras(高吞吐)](#3. Cerebras(高吞吐))
[4. Mistral AI(全模型免费)](#4. Mistral AI(全模型免费))
[5. OpenRouter(聚合平台)](#5. OpenRouter(聚合平台))
[三、真正 "无限量"/ 准无限(适合重度 OpenClaw)](#三、真正 “无限量”/ 准无限(适合重度 OpenClaw))
[四、OpenClaw 接入配置(通用步骤)](#四、OpenClaw 接入配置(通用步骤))
[六 、开箱即用的 OpenClaw 多平台 API 配置模板](#六 、开箱即用的 OpenClaw 多平台 API 配置模板)
[Ollama 本地模型(完全免费,无任何限制)](#Ollama 本地模型(完全免费,无任何限制))
以下是适合 OpenClaw 使用的免费 / 高额度 / 准无限量 Token 平台汇总,均兼容 OpenAI API 格式,可直接接入无需改代码。
一、国内平台(推荐,稳定、中文友好)
1. 硅基流动(SiliconFlow)
-
免费额度 :注册即送 2000 万 Token 永久有效 ;部分模型无 Token 上限,仅限 RPM(每分钟请求数)
-
支持模型:DeepSeek-R1、Qwen3、GLM-4、Llama 系列等
-
API key获取方
-
API 配置
Base URL: https://api.siliconflow.cn/v1 Model: deepseek-r1-0528 / qwen3-8b-chat / glm-4-9b-chat -
优势:国内节点、高并发、OpenAI 兼容、无需绑卡
2. 智谱 AI(GLM 系列)
-
免费额度 :GLM-4-Flash 永久不限量(仅 QPS 限速) ;新用户送 2000 万 + Token
-
支持模型:GLM-5、GLM-4.7/4.6、GLM-4-Flash(免费主力)
-
API key获取方式
-
API 配置
Base URL: https://open.bigmodel.cn/api/paas/v4 Model: glm-4-flash / glm-5 -
优势:国产强模型、编码 / Agent 能力突出、支持 ToolCalling
3. 百度千帆(ERNIE 系列)
-
免费额度 :ERNIE-Speed/Lite 永久免费不限量(仅 QPS 限速) ;主流模型每模型 100 万 Token/3 个月
-
支持模型:ERNIE-4.5、ERNIE-Speed、ERNIE-Lite 等
-
API key获取方式
百度智能云注册并完成实名认证,进入千帆大模型平台(qianfan.cloud.baidu.com)创建AK/SK,无需额外审核
-
API 配置 :兼容 OpenAI,需在千帆控制台获取 Key
Base URL:qianfan.cloud.baidu.com 或兼容endpoint https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions -
优势:中文理解强、多模态、文档处理优秀
4. 讯飞星火
-
免费额度 :每个模型20 万 Token 永久免费 ;新用户额外 50 万 Token/30 天
-
支持模型:星火认知大模型 v4 等
-
API 配置 :需实名认证
Base URL: spark-api.xf-yun.com -
优势:语音识别、长文本、方言支持好
5. 阿里云百炼(Model Studio / 通义千问系列为主)
-
免费额度 :新用户 90 天免费 ;Lite 版不限量 ,个人版 200 万 Token
-
支持模型:通义千问系列、Llama 3 等
-
API key获取方式:
阿里云官网注册并完成实名认证,进入百炼平台https://bailian.console.aliyun.com创建AccessKey,需绑定阿里云账号。
-
API 配置 :兼容 OpenAI,国内稳定
Base URL:https://bailian.console.aliyun.com 或 dashscope.aliyuncs.com/compatible-mode/v1(兼容OpenAI调用格式)
6.Kimi系列
Moonshot AI
API key获取方式https://platform.moonshot.cn
Base URL:https://api.moonshot.cn/v1
火山引擎(字节豆包 / 方舟平台)
API key获取方式https://www.volcengine.com → 创建AK/SK
Base URL:ark.cn-beijing.volces.com/api/v3
或
OpenAI的endpoint
https://ark.cn-beijing.volces.com/api/v1/chat/completions
7.腾讯云混元
GrokxAI 地址https://ytm.app/openclaw-free-api-token/
Gemini API 地址https://ytm.app/openclaw-free-api-token/
二、国际平台(速度快、模型新)
1. Groq(极速推理)
-
免费额度 :每日 1000 次请求,6000 Token / 分钟;无 Token 总量上限
-
支持模型:Llama 3.3 70B、Llama 4 Scout、DeepSeek R1、Gemma 2 等
-
API 配置
plaintext
Base URL: https://api.groq.com/openai/v1 Model: llama-3.3-70b-versatile / deepseek-r1-distill-llama-70b -
优势 :LPU 加速,300+ Token / 秒,全球最快推理之一
2. NVIDIA NIM(准无限)
-
免费额度 :每分钟 40 次请求,无 Token 总量上限;200+ 模型可选
-
支持模型:Kimi-K2.5、MiniMax、GLM5、Llama 3、Mistral 等
-
API 配置
plaintext
Base URL: https://integrate.api.nvidia.com/v1 Model: 选择对应模型 ID -
优势:企业级稳定、免绑卡、国内手机号可用
3. Cerebras(高吞吐)
- 免费额度 :每日 100 万 Token,30 RPM ;吞吐量近 3000 Token / 秒
- 支持模型:Llama 3.3 70B、Qwen3 32B/235B、GPT-OSS 120B 等
- API 配置:兼容 OpenAI,无需信用卡
4. Mistral AI(全模型免费)
- 免费额度 :每月 10 亿 Token,1 次 / 秒;全模型免费
- 支持模型:Mistral Large、Small 3.1、Codestral 等
- API 配置:兼容 OpenAI,无需绑卡
5. OpenRouter(聚合平台)
-
免费额度 :每日 1 万次免费请求,无 Token 限制
-
支持模型:聚合全球 100+ 模型(GPT-4o、Claude 3.5、Gemini、Llama 等)
-
API 配置
plaintext
Base URL: https://openrouter.ai/api/v1 Model: 选择对应模型(如 openai/gpt-4o、anthropic/claude-3.5-sonnet) -
优势:一键切换多模型、自动负载均衡、适合 OpenClaw 多模型调度
三、真正 "无限量"/ 准无限(适合重度 OpenClaw)
- 硅基流动(部分模型):无 Token 上限,仅限 RPM(每分钟请求数)
- 智谱 GLM-4-Flash:永久不限量,仅 QPS 限速
- 百度千帆 ERNIE-Lite/Speed:永久不限量,仅 QPS 限速
- NVIDIA NIM:无 Token 总量上限,仅限 RPM
- ArliAI :号称无限生成次数、无 Token / 请求限制(小众平台,稳定性待验证)
四、OpenClaw 接入配置(通用步骤)
- 在平台注册、实名认证、获取 API Key
- 打开 OpenClaw 配置文件(
config.yaml或.env) - 替换为对应平台的 Base URL 、API Key 、Model Name
- 重启 OpenClaw 服务即可
五、使用建议(最大化免费额度)
- 多平台组合:将硅基流动、智谱、Groq、NVIDIA NIM 等配置到 OpenClaw,自动切换,实现 "准无限"
- 优先免费模型:如 GLM-4-Flash、ERNIE-Lite、DeepSeek-R1 等,性能足够且免费
- 设置限额 :在 OpenClaw 中为每个 API 配置每日 / 每月 Token 上限,避免超量
- 本地部署备选 :搭配 Ollama 本地运行开源模型(如 Llama 3、Qwen),完全免费、无 Token 限制
六 、开箱即用的 OpenClaw 多平台 API 配置模板
在使用时只需替换自己的 API Key 即可直接使用。
配置模板(config.yaml)
# OpenClaw 多平台 API 配置模板(2026 免费/无限量版)
# 使用说明:替换各平台的 api_key 为自己的密钥,其余参数无需修改
# 全局配置
global:
timeout: 30 # 请求超时时间(秒)
max_retries: 3 # 失败重试次数
default_model: "glm-4-flash" # 默认使用的模型(智谱免费无限量)
# 多平台 API 配置(按优先级排序,自动切换)
apis:
# 1. 智谱 AI(GLM-4-Flash 永久免费无限量)
zhipu:
api_type: "openai"
api_key: "你的智谱API Key" # 替换为自己的 Key
base_url: "https://open.bigmodel.cn/api/paas/v4"
models:
- model_name: "glm-4-flash"
max_tokens: 8192
rpm: 60 # 每分钟请求数限制
tpm: 0 # 0 = 无 Token 总量限制
priority: 1 # 最高优先级
# 2. 硅基流动(2000万永久 Token + 部分模型无限量)
siliconflow:
api_type: "openai"
api_key: "你的硅基流动API Key" # 替换为自己的 Key
base_url: "https://api.siliconflow.cn/v1"
models:
- model_name: "deepseek-r1-0528"
max_tokens: 16384
rpm: 30
tpm: 20000000 # 2000万 Token 额度
priority: 2
# 3. Groq(极速推理,每日1000次请求无总量限制)
groq:
api_type: "openai"
api_key: "你的Groq API Key" # 替换为自己的 Key
base_url: "https://api.groq.com/openai/v1"
models:
- model_name: "llama-3.3-70b-versatile"
max_tokens: 8192
rpm: 60 # 每分钟请求数限制
tpm: 0 # 无 Token 总量限制
priority: 3
# 4. NVIDIA NIM(无 Token 总量限制)
nvidia:
api_type: "openai"
api_key: "你的NVIDIA API Key" # 替换为自己的 Key
base_url: "https://integrate.api.nvidia.com/v1"
models:
- model_name: "mistralai/mistral-large-2"
max_tokens: 32768
rpm: 40 # 每分钟请求数限制
tpm: 0 # 无 Token 总量限制
priority: 4
# 5. 百度千帆(ERNIE-Speed 永久免费)
baidu:
api_type: "openai"
api_key: "你的百度千帆API Key" # 替换为自己的 Key
base_url: "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions"
models:
- model_name: "ERNIE-Speed-8K"
max_tokens: 8192
rpm: 20
tpm: 0 # 无 Token 总量限制
priority: 5
# 自动切换策略(核心!实现"准无限")
switch_strategy:
enable: true # 开启自动切换
switch_on: # 触发切换的条件
- token_exhausted # Token 用尽时切换
- rate_limit_exceeded # 速率限制时切换
- request_failed # 请求失败时切换
fallback_order: ["zhipu", "siliconflow", "groq", "nvidia", "baidu"] # 降级顺序
# 用量监控(防止意外超量)
usage_monitor:
enable: true
daily_limit: 0 # 0 = 无每日总量限制
alert_threshold: 0.9 # 用量达90%时提醒
配置说明(关键步骤)
-
获取 API Key:
- 智谱 AI:https://open.bigmodel.cn/
- 硅基流动:https://siliconflow.cn/
- Groq:https://console.groq.com/
- NVIDIA NIM:https://build.nvidia.com/
- 百度千帆:https://console.bce.baidu.com/qianfan/
-
替换 Key:
- 将模板中
你的XX API Key替换为实际获取的密钥 - 不需要的平台可以直接删除对应配置块
- 将模板中
-
核心优势:
- 自动切换:当某个平台触发限速 / Token 用尽时,自动切换到下一个平台
- 无限量优先:优先使用智谱 GLM-4-Flash(永久无限)、NVIDIA NIM(无总量限制)
- 极速兜底:Groq 作为兜底,保证响应速度(300+ Token / 秒)
Ollama 本地模型(完全免费,无任何限制)
ollama:
api_type: "openai"
api_key: "ollama" # 固定值,无需修改
base_url: "http://localhost:11434/v1"
models:
model_name: "qwen3:8b" # 本地部署的模型名
max_tokens: 8192
rpm: 0
tpm: 0
priority: 6