openclaw使用硅基流动免费模型

免费模型:https://cloud.siliconflow.cn/i/fWX2lFzB,邀请码:fWX2lFzB

您可以按照以下步骤,将 OpenClaw 配置为使用硅基流动 (SiliconFlow) 的免费模型。此方法适用于本地或云端(阿里云、腾讯云等)的 OpenClaw 环境。


📝 1. 准备工作

  1. 安装 OpenClaw

    • 确保您的 OpenClaw 已成功安装。若未安装,可参考官方文档或执行以下命令(以全局安装为例):

      bash

      npm install -g openclaw@latest

  2. 注册硅基流动并获取 API Key

    • 访问硅基流动官网 https://cloud.siliconflow.cn/并注册登录。

    • 在「API 密钥」页面新建一个密钥,并复制保存。密钥格式通常为 sk-xxxxxx,请妥善保管。

  3. 确认免费模型名称

    • 在硅基流动的「模型广场」中,找到状态为"免费"或"免费额度"的模型。

    • 常见的免费模型ID包括:

      • Qwen/Qwen3-8B(通义千问 3-8B)

      • deepseek-ai/DeepSeek-R1-0528-Qwen3-8B(DeepSeek R1 蒸馏版)

    • 请记下您想使用的模型完整ID,后续配置需要用到。


⚙️ 2. 配置 OpenClaw 连接硅基流动

您可以选择以下任一方法进行配置。

方法一:使用命令行快速配置 (推荐)

此方法通过一条命令完成所有配置,最为便捷。

  1. 执行配置命令

    将下方命令中的 sk-xxxxxx替换为您的硅基流动 API Key,并根据您选择的免费模型ID修改 id字段。

    • 若使用 Qwen3-8B模型:

      bash

      openclaw config set 'models.providers.siliconflow' --json '{

      "baseUrl": "https://api.siliconflow.cn/v1",

      "apiKey": "sk-xxxxxx",

      "api": "openai-completions",

      "models": [

      {

      "id": "Qwen/Qwen3-8B",

      "name": "通义千问3 8B (免费)",

      "reasoning": false,

      "input": ["text"],

      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },

      "contextWindow": 32768,

      "maxTokens": 8192

      }

      ]

      }'

    • 若使用 DeepSeek-R1-8B模型:

      bash

      openclaw config set 'models.providers.siliconflow' --json '{

      "baseUrl": "https://api.siliconflow.cn/v1",

      "apiKey": "sk-xxxxxx",

      "api": "openai-completions",

      "models": [

      {

      "id": "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B",

      "name": "DeepSeek R1 8B (免费)",

      "reasoning": false,

      "input": ["text"],

      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },

      "contextWindow": 32768,

      "maxTokens": 8192

      }

      ]

      }'

  2. 设置默认模型

    将硅基流动的免费模型设为 OpenClaw 的默认模型,以便直接调用。

    • 使用 Qwen3-8B 作为默认模型:

      bash

      openclaw config set agents.defaults.model.primary "siliconflow/Qwen/Qwen3-8B"

    • 使用 DeepSeek-R1-8B 作为默认模型:

      bash

      openclaw config set agents.defaults.model.primary "siliconflow/deepseek-ai/DeepSeek-R1-0528-Qwen3-8B"

方法二:手动编辑配置文件

如果您习惯直接修改配置文件,可按以下步骤操作。

  1. 打开配置文件

    • Linux / macOS:

      bash

      nano ~/.openclaw/openclaw.json

    • Windows:

      在文件资源管理器中打开路径 C:\Users\你的用户名\.openclaw\openclaw.json,并用记事本等编辑器打开。

  2. 添加配置项

    models.providers节点下,添加 siliconflow的配置。如果 models节点不存在,请一并创建。

    json

    {

    // ... 其他配置

    "models": {

    "providers": {

    "siliconflow": {

    "baseUrl": "https://api.siliconflow.cn/v1",

    "apiKey": "sk-xxxxxx",

    "api": "openai-completions",

    "models": [

    {

    "id": "Qwen/Qwen3-8B",

    "name": "通义千问3 8B (免费)"

    }

    ]

    }

    }

    }

    }

  3. 设置默认模型

    同样,您可以在配置文件中直接指定默认模型,或使用命令行设置(见方法一的步骤2)。


✅ 3. 验证配置并测试

  1. 检查模型状态

    执行以下命令,查看模型是否已正确加载并连接。

    bash

    openclaw models list

    openclaw models status

    如果输出中包含 siliconflow/...且状态为"已连接",则表示配置成功。

  2. 重启 OpenClaw 服务

    为使配置生效,请重启 OpenClaw 服务。

    • 若以服务方式运行:

      bash

      sudo systemctl restart openclaw

    • 若以进程方式运行:

      Ctrl+C终止进程,然后重新执行 openclaw gateway start

  3. 发送测试消息

    通过 WebUI、飞书或 QQ 等渠道向 OpenClaw 发送消息,例如:"你好,请介绍一下你自己"。如果能正常收到回复,即表示整个配置流程成功完成。

相关推荐
UXbot2 小时前
APP原型生成工具测评
android·前端·人工智能·低代码·ios·开发·app原型
chalmers_152 小时前
封禁暴力破解SSH的攻击IP
linux·服务器·ssh
代码探秘者2 小时前
【大模型应用】2.RAG详细流程
java·开发语言·人工智能·后端·python
用户5191495848452 小时前
Synkra AIOX:通用AI代理框架与自进化开发系统
人工智能·aigc
Pyeako2 小时前
大模型--模型部署
人工智能·python·大模型·客户端·模型部署·服务端·路由-端口
阿木实验室2 小时前
OpenClaw控制无人机,是整活还是真方向?
无人机·openclaw
baizhigangqw2 小时前
Spring Boot spring.factories文件详细说明
spring boot·后端·spring
佳木逢钺2 小时前
机器人/无人机视觉开发选型指南:RealSense D455 vs D435i 与奥比中光的互补方案
c++·人工智能·计算机视觉·机器人·ros·无人机
实在智能RPA2 小时前
2026年企业级实测:企业部署智能体要什么电脑配置?从硬件门槛到架构选型的深度拆解
人工智能·ai·架构