整合一些 免费甚至无限量token平台,方便OpenClaw 使用,及一些相关使用配置代码

目录

一、国内平台(推荐,稳定、中文友好)

[1. 硅基流动(SiliconFlow)](#1. 硅基流动(SiliconFlow))

[2. 智谱 AI(GLM 系列)](#2. 智谱 AI(GLM 系列))

[3. 百度千帆(ERNIE 系列)](#3. 百度千帆(ERNIE 系列))

[4. 讯飞星火](#4. 讯飞星火)

[5. 阿里云百炼(Model Studio / 通义千问系列为主)](#5. 阿里云百炼(Model Studio / 通义千问系列为主))

6.Kimi系列

[Moonshot AI](#Moonshot AI)

[火山引擎(字节豆包 / 方舟平台)](#火山引擎(字节豆包 / 方舟平台))

7.腾讯云混元

二、国际平台(速度快、模型新)

[1. Groq(极速推理)](#1. Groq(极速推理))

[2. NVIDIA NIM(准无限)](#2. NVIDIA NIM(准无限))

[3. Cerebras(高吞吐)](#3. Cerebras(高吞吐))

[4. Mistral AI(全模型免费)](#4. Mistral AI(全模型免费))

[5. OpenRouter(聚合平台)](#5. OpenRouter(聚合平台))

[三、真正 "无限量"/ 准无限(适合重度 OpenClaw)](#三、真正 “无限量”/ 准无限(适合重度 OpenClaw))

[四、OpenClaw 接入配置(通用步骤)](#四、OpenClaw 接入配置(通用步骤))

五、使用建议(最大化免费额度)

[六 、开箱即用的 OpenClaw 多平台 API 配置模板](#六 、开箱即用的 OpenClaw 多平台 API 配置模板)

配置说明(关键步骤)

[Ollama 本地模型(完全免费,无任何限制)](#Ollama 本地模型(完全免费,无任何限制))


以下是适合 OpenClaw 使用的免费 / 高额度 / 准无限量 Token 平台汇总,均兼容 OpenAI API 格式,可直接接入无需改代码。

一、国内平台(推荐,稳定、中文友好)

1. 硅基流动(SiliconFlow)
  • 免费额度 :注册即送 2000 万 Token 永久有效 ;部分模型无 Token 上限,仅限 RPM(每分钟请求数)

  • 支持模型:DeepSeek-R1、Qwen3、GLM-4、Llama 系列等

  • API key获取方

    访问地址 https://cloud.siliconflow.cn/i/kQTQzfuz

  • API 配置

    复制代码
    Base URL: https://api.siliconflow.cn/v1
    Model: deepseek-r1-0528 / qwen3-8b-chat / glm-4-9b-chat
  • 优势:国内节点、高并发、OpenAI 兼容、无需绑卡

2. 智谱 AI(GLM 系列)
  • 免费额度GLM-4-Flash 永久不限量(仅 QPS 限速) ;新用户送 2000 万 + Token

  • 支持模型:GLM-5、GLM-4.7/4.6、GLM-4-Flash(免费主力)

  • API key获取方式

    访问https://www.bigmodel.cn/

  • API 配置

    复制代码
    Base URL: https://open.bigmodel.cn/api/paas/v4
    Model: glm-4-flash / glm-5
  • 优势:国产强模型、编码 / Agent 能力突出、支持 ToolCalling

3. 百度千帆(ERNIE 系列)
  • 免费额度ERNIE-Speed/Lite 永久免费不限量(仅 QPS 限速) ;主流模型每模型 100 万 Token/3 个月

  • 支持模型:ERNIE-4.5、ERNIE-Speed、ERNIE-Lite 等

  • API key获取方式

    百度智能云注册并完成实名认证,进入千帆大模型平台(qianfan.cloud.baidu.com)创建AK/SK,无需额外审核

  • API 配置 :兼容 OpenAI,需在千帆控制台获取 Key

    复制代码
    Base URL:qianfan.cloud.baidu.com 
    
    或兼容endpoint 
    
    https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions
  • 优势:中文理解强、多模态、文档处理优秀

4. 讯飞星火
  • 免费额度 :每个模型20 万 Token 永久免费 ;新用户额外 50 万 Token/30 天

  • 支持模型:星火认知大模型 v4 等

  • API 配置 :需实名认证

    复制代码
    ​​​​​​​Base URL: spark-api.xf-yun.com
  • 优势:语音识别、长文本、方言支持好

5. 阿里云百炼(Model Studio / 通义千问系列为主)
  • 免费额度 :新用户 90 天免费 ;Lite 版不限量 ,个人版 200 万 Token

  • 支持模型:通义千问系列、Llama 3 等

  • API key获取方式:

    阿里云官网注册并完成实名认证,进入百炼平台https://bailian.console.aliyun.com创建AccessKey,需绑定阿里云账号。

  • API 配置 :兼容 OpenAI,国内稳定

    复制代码
    Base URL:https://bailian.console.aliyun.com 
    
    或
    
    dashscope.aliyuncs.com/compatible-mode/v1(兼容OpenAI调用格式)
6.Kimi系列
Moonshot AI

API key获取方式https://platform.moonshot.cn

复制代码
​
Base URL:https://api.moonshot.cn/v1

​
火山引擎(字节豆包 / 方舟平台)

API key获取方式https://www.volcengine.com → 创建AK/SK

复制代码
​
Base URL:ark.cn-beijing.volces.com/api/v3 

或
OpenAI的endpoint

https://ark.cn-beijing.volces.com/api/v1/chat/completions

​
7.腾讯云混元

GrokxAI 地址https://ytm.app/openclaw-free-api-token/

Gemini API 地址https://ytm.app/openclaw-free-api-token/


二、国际平台(速度快、模型新)

1. Groq(极速推理)
  • 免费额度每日 1000 次请求,6000 Token / 分钟;无 Token 总量上限

  • 支持模型:Llama 3.3 70B、Llama 4 Scout、DeepSeek R1、Gemma 2 等

  • API 配置

    plaintext

    复制代码
    Base URL: https://api.groq.com/openai/v1
    Model: llama-3.3-70b-versatile / deepseek-r1-distill-llama-70b
  • 优势 :LPU 加速,300+ Token / 秒,全球最快推理之一

2. NVIDIA NIM(准无限)
  • 免费额度每分钟 40 次请求,无 Token 总量上限;200+ 模型可选

  • 支持模型:Kimi-K2.5、MiniMax、GLM5、Llama 3、Mistral 等

  • API 配置

    plaintext

    复制代码
    Base URL: https://integrate.api.nvidia.com/v1
    Model: 选择对应模型 ID
  • 优势:企业级稳定、免绑卡、国内手机号可用

3. Cerebras(高吞吐)
  • 免费额度每日 100 万 Token,30 RPM ;吞吐量近 3000 Token / 秒
  • 支持模型:Llama 3.3 70B、Qwen3 32B/235B、GPT-OSS 120B 等
  • API 配置:兼容 OpenAI,无需信用卡
4. Mistral AI(全模型免费)
  • 免费额度每月 10 亿 Token,1 次 / 秒;全模型免费
  • 支持模型:Mistral Large、Small 3.1、Codestral 等
  • API 配置:兼容 OpenAI,无需绑卡
5. OpenRouter(聚合平台)
  • 免费额度每日 1 万次免费请求,无 Token 限制

  • 支持模型:聚合全球 100+ 模型(GPT-4o、Claude 3.5、Gemini、Llama 等)

  • API 配置

    plaintext

    复制代码
    Base URL: https://openrouter.ai/api/v1
    Model: 选择对应模型(如 openai/gpt-4o、anthropic/claude-3.5-sonnet)
  • 优势:一键切换多模型、自动负载均衡、适合 OpenClaw 多模型调度


三、真正 "无限量"/ 准无限(适合重度 OpenClaw)

  1. 硅基流动(部分模型):无 Token 上限,仅限 RPM(每分钟请求数)
  2. 智谱 GLM-4-Flash:永久不限量,仅 QPS 限速
  3. 百度千帆 ERNIE-Lite/Speed:永久不限量,仅 QPS 限速
  4. NVIDIA NIM:无 Token 总量上限,仅限 RPM
  5. ArliAI :号称无限生成次数、无 Token / 请求限制(小众平台,稳定性待验证)

四、OpenClaw 接入配置(通用步骤)

  1. 在平台注册、实名认证、获取 API Key
  2. 打开 OpenClaw 配置文件(config.yaml.env
  3. 替换为对应平台的 Base URLAPI KeyModel Name
  4. 重启 OpenClaw 服务即可

五、使用建议(最大化免费额度)

  • 多平台组合:将硅基流动、智谱、Groq、NVIDIA NIM 等配置到 OpenClaw,自动切换,实现 "准无限"
  • 优先免费模型:如 GLM-4-Flash、ERNIE-Lite、DeepSeek-R1 等,性能足够且免费
  • 设置限额 :在 OpenClaw 中为每个 API 配置每日 / 每月 Token 上限,避免超量
  • 本地部署备选 :搭配 Ollama 本地运行开源模型(如 Llama 3、Qwen),完全免费、无 Token 限制

六 、开箱即用的 OpenClaw 多平台 API 配置模板

在使用时只需替换自己的 API Key 即可直接使用。

配置模板(config.yaml)

复制代码
# OpenClaw 多平台 API 配置模板(2026 免费/无限量版)
# 使用说明:替换各平台的 api_key 为自己的密钥,其余参数无需修改

# 全局配置
global:
  timeout: 30                  # 请求超时时间(秒)
  max_retries: 3               # 失败重试次数
  default_model: "glm-4-flash" # 默认使用的模型(智谱免费无限量)

# 多平台 API 配置(按优先级排序,自动切换)
apis:
  # 1. 智谱 AI(GLM-4-Flash 永久免费无限量)
  zhipu:
    api_type: "openai"
    api_key: "你的智谱API Key"       # 替换为自己的 Key
    base_url: "https://open.bigmodel.cn/api/paas/v4"
    models:
      - model_name: "glm-4-flash"
        max_tokens: 8192
        rpm: 60                     # 每分钟请求数限制
        tpm: 0                      # 0 = 无 Token 总量限制
    priority: 1                     # 最高优先级

  # 2. 硅基流动(2000万永久 Token + 部分模型无限量)
  siliconflow:
    api_type: "openai"
    api_key: "你的硅基流动API Key"   # 替换为自己的 Key
    base_url: "https://api.siliconflow.cn/v1"
    models:
      - model_name: "deepseek-r1-0528"
        max_tokens: 16384
        rpm: 30
        tpm: 20000000               # 2000万 Token 额度
    priority: 2

  # 3. Groq(极速推理,每日1000次请求无总量限制)
  groq:
    api_type: "openai"
    api_key: "你的Groq API Key"     # 替换为自己的 Key
    base_url: "https://api.groq.com/openai/v1"
    models:
      - model_name: "llama-3.3-70b-versatile"
        max_tokens: 8192
        rpm: 60                     # 每分钟请求数限制
        tpm: 0                      # 无 Token 总量限制
    priority: 3

  # 4. NVIDIA NIM(无 Token 总量限制)
  nvidia:
    api_type: "openai"
    api_key: "你的NVIDIA API Key"   # 替换为自己的 Key
    base_url: "https://integrate.api.nvidia.com/v1"
    models:
      - model_name: "mistralai/mistral-large-2"
        max_tokens: 32768
        rpm: 40                     # 每分钟请求数限制
        tpm: 0                      # 无 Token 总量限制
    priority: 4

  # 5. 百度千帆(ERNIE-Speed 永久免费)
  baidu:
    api_type: "openai"
    api_key: "你的百度千帆API Key"  # 替换为自己的 Key
    base_url: "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions"
    models:
      - model_name: "ERNIE-Speed-8K"
        max_tokens: 8192
        rpm: 20
        tpm: 0                      # 无 Token 总量限制
    priority: 5

# 自动切换策略(核心!实现"准无限")
switch_strategy:
  enable: true                     # 开启自动切换
  switch_on:                       # 触发切换的条件
    - token_exhausted              # Token 用尽时切换
    - rate_limit_exceeded          # 速率限制时切换
    - request_failed               # 请求失败时切换
  fallback_order: ["zhipu", "siliconflow", "groq", "nvidia", "baidu"] # 降级顺序

# 用量监控(防止意外超量)
usage_monitor:
  enable: true
  daily_limit: 0                   # 0 = 无每日总量限制
  alert_threshold: 0.9             # 用量达90%时提醒

配置说明(关键步骤)

  1. 获取 API Key

  2. 替换 Key

    • 将模板中 你的XX API Key 替换为实际获取的密钥
    • 不需要的平台可以直接删除对应配置块
  3. 核心优势

    • 自动切换:当某个平台触发限速 / Token 用尽时,自动切换到下一个平台
    • 无限量优先:优先使用智谱 GLM-4-Flash(永久无限)、NVIDIA NIM(无总量限制)
    • 极速兜底:Groq 作为兜底,保证响应速度(300+ Token / 秒)

Ollama 本地模型(完全免费,无任何限制)

复制代码
ollama:
    api_type: "openai"
    api_key: "ollama"   # 固定值,无需修改
    base_url: "http://localhost:11434/v1"
    models:
        model_name: "qwen3:8b"      # 本地部署的模型名
        max_tokens: 8192
        rpm: 0
        tpm: 0
        priority: 6
相关推荐
蓝队云计算2 小时前
部署OpenClaw选什么服务器?2核4G+10M带宽配置的蓝队云服务器轻松搞定!
运维·服务器·人工智能·云服务器·openclaw
心中有国也有家2 小时前
OpenClaw 常见问题完全排查指南:从安装到卸载的全流程解决方案
网络·openclaw
Shi_haoliu2 小时前
FRP + Caddy 域名HTTPS配置指南
服务器·frp·caddy·openclaw
追雨潮2 小时前
OpenClaw 完整部署指南(Ubuntu + 阿里云海外版)+ 飞书接入 + 2026.3.x 权限修复--新手教程
ubuntu·阿里云·飞书·openclaw
uesowys4 小时前
腾讯云使用OpenClaw搭建企业微信AI助手
人工智能·企业微信·腾讯云·openclaw
Shi_haoliu11 小时前
openClaw源码部署-linux
前端·python·ai·openclaw
宁波阿成11 小时前
OpenClaw 在 Ubuntu 22.04.5 LTS 上的安装与问题处理记录
java·linux·ubuntu·openclaw·龙虾
wal131452012 小时前
OpenClaw教程(九)—— 彻底告别!OpenClaw 卸载不残留指南
前端·网络·人工智能·chrome·安全·openclaw
草莓泰面包14 小时前
虚拟机VMware安装OpenClaw
人工智能·ai·大模型·openclaw