openclaw使用硅基流动免费模型

免费模型:https://cloud.siliconflow.cn/i/fWX2lFzB,邀请码:fWX2lFzB

您可以按照以下步骤,将 OpenClaw 配置为使用硅基流动 (SiliconFlow) 的免费模型。此方法适用于本地或云端(阿里云、腾讯云等)的 OpenClaw 环境。


📝 1. 准备工作

  1. 安装 OpenClaw

    • 确保您的 OpenClaw 已成功安装。若未安装,可参考官方文档或执行以下命令(以全局安装为例):

      bash

      npm install -g openclaw@latest

  2. 注册硅基流动并获取 API Key

    • 访问硅基流动官网 https://cloud.siliconflow.cn/并注册登录。

    • 在「API 密钥」页面新建一个密钥,并复制保存。密钥格式通常为 sk-xxxxxx,请妥善保管。

  3. 确认免费模型名称

    • 在硅基流动的「模型广场」中,找到状态为"免费"或"免费额度"的模型。

    • 常见的免费模型ID包括:

      • Qwen/Qwen3-8B(通义千问 3-8B)

      • deepseek-ai/DeepSeek-R1-0528-Qwen3-8B(DeepSeek R1 蒸馏版)

    • 请记下您想使用的模型完整ID,后续配置需要用到。


⚙️ 2. 配置 OpenClaw 连接硅基流动

您可以选择以下任一方法进行配置。

方法一:使用命令行快速配置 (推荐)

此方法通过一条命令完成所有配置,最为便捷。

  1. 执行配置命令

    将下方命令中的 sk-xxxxxx替换为您的硅基流动 API Key,并根据您选择的免费模型ID修改 id字段。

    • 若使用 Qwen3-8B模型:

      bash

      openclaw config set 'models.providers.siliconflow' --json '{

      "baseUrl": "https://api.siliconflow.cn/v1",

      "apiKey": "sk-xxxxxx",

      "api": "openai-completions",

      "models": [

      {

      "id": "Qwen/Qwen3-8B",

      "name": "通义千问3 8B (免费)",

      "reasoning": false,

      "input": ["text"],

      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },

      "contextWindow": 32768,

      "maxTokens": 8192

      }

      ]

      }'

    • 若使用 DeepSeek-R1-8B模型:

      bash

      openclaw config set 'models.providers.siliconflow' --json '{

      "baseUrl": "https://api.siliconflow.cn/v1",

      "apiKey": "sk-xxxxxx",

      "api": "openai-completions",

      "models": [

      {

      "id": "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B",

      "name": "DeepSeek R1 8B (免费)",

      "reasoning": false,

      "input": ["text"],

      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },

      "contextWindow": 32768,

      "maxTokens": 8192

      }

      ]

      }'

  2. 设置默认模型

    将硅基流动的免费模型设为 OpenClaw 的默认模型,以便直接调用。

    • 使用 Qwen3-8B 作为默认模型:

      bash

      openclaw config set agents.defaults.model.primary "siliconflow/Qwen/Qwen3-8B"

    • 使用 DeepSeek-R1-8B 作为默认模型:

      bash

      openclaw config set agents.defaults.model.primary "siliconflow/deepseek-ai/DeepSeek-R1-0528-Qwen3-8B"

方法二:手动编辑配置文件

如果您习惯直接修改配置文件,可按以下步骤操作。

  1. 打开配置文件

    • Linux / macOS:

      bash

      nano ~/.openclaw/openclaw.json

    • Windows:

      在文件资源管理器中打开路径 C:\Users\你的用户名\.openclaw\openclaw.json,并用记事本等编辑器打开。

  2. 添加配置项

    models.providers节点下,添加 siliconflow的配置。如果 models节点不存在,请一并创建。

    json

    {

    // ... 其他配置

    "models": {

    "providers": {

    "siliconflow": {

    "baseUrl": "https://api.siliconflow.cn/v1",

    "apiKey": "sk-xxxxxx",

    "api": "openai-completions",

    "models": [

    {

    "id": "Qwen/Qwen3-8B",

    "name": "通义千问3 8B (免费)"

    }

    ]

    }

    }

    }

    }

  3. 设置默认模型

    同样,您可以在配置文件中直接指定默认模型,或使用命令行设置(见方法一的步骤2)。


✅ 3. 验证配置并测试

  1. 检查模型状态

    执行以下命令,查看模型是否已正确加载并连接。

    bash

    openclaw models list

    openclaw models status

    如果输出中包含 siliconflow/...且状态为"已连接",则表示配置成功。

  2. 重启 OpenClaw 服务

    为使配置生效,请重启 OpenClaw 服务。

    • 若以服务方式运行:

      bash

      sudo systemctl restart openclaw

    • 若以进程方式运行:

      Ctrl+C终止进程,然后重新执行 openclaw gateway start

  3. 发送测试消息

    通过 WebUI、飞书或 QQ 等渠道向 OpenClaw 发送消息,例如:"你好,请介绍一下你自己"。如果能正常收到回复,即表示整个配置流程成功完成。

相关推荐
人工智能AI技术1 天前
后端、前端、测试转大模型,哪个方向性价比最高
人工智能
AI 编程助手GPT1 天前
【深度】GPT-5.5 重新定义编程、Copilot 转向 Token 计费、大模型进入“雅尔塔时刻“——2026 年 4 月 28 日 AI 编程三大变局
人工智能·gpt·ai·chatgpt·copilot·ai编程·#程序员效率
TG_yunshuguoji1 天前
云代理商:DeepSeek V4 重塑云服务 AI 格局 推理成本直降
人工智能·云计算·ai智能体·deepseek v4
qcx231 天前
AI 工程知识图谱:从 Transformer 到 Agentic AI 的全景地图
人工智能·transformer·知识图谱
sheji1051 天前
扫地机器人行业深度分析报告
大数据·人工智能·机器人·智能硬件
AI木马人1 天前
11.【AI系统微服务架构实战】如何从单体系统升级到微服务?(避免系统崩溃的完整方案)
人工智能·微服务·架构
AI探知-阿薇1 天前
OpenAI GPT-5.5 API Key 配置详解:环境变量设置与 AI 编程 Agent 搭建
人工智能·gpt
Gofarlic_oms11 天前
Allegro高级功能模块许可证管理注意事项
运维·服务器·开发语言·matlab·负载均衡
IMPYLH1 天前
Linux 的 sum 命令
linux·运维·服务器·chrome·python·bash
AI医影跨模态组学1 天前
Ann Oncol(IF=65.4)广东省人民医院放射科刘再毅&阿里巴巴达摩院等团队:基于非增强CT与深度学习的结直肠癌检测
人工智能·深度学习·论文·医学影像