OpenClaw 如何更换本地模型基础教程

上两篇文章简单写了下如何在本级安装 OpenClaw,并且如何对接飞书和钉钉,但配置过程中可以发现,使用的模型都是公网开源的模型,比如 Qwen、OpenRouter 等,这些一般都有限额,也只能用来做少量的测试就超额了,只能不断的更换。当然一劳永逸的是买 API 使用,但是虽然是个【小龙虾】,但消费起来完全不小,不经意间 Token 耗费巨大,钱包也扛不住。

那么这篇就简单说说如何使用本地安装的模型,节省 Token,保住钱包。

第一步,安装本地模型

其实在小龙虾出现之前,本地跑大模型已是常态,应该听说过 Ollama,所以先安装好 Ollama。

官网地址:https://ollama.com/

下载地址:https://ollama.com/download/windows

安装步骤不再细述,我这里是 Win11,所以安装了 Windows 版本,安装成功后,记得参考《Ollama 下载模型的默认存储位置修改》修改下载模型默认存放的位置,否则默认的系统盘很快就会满。

安装完成后,在命令行中输入命令测试安装是否成功。

  • 下载想在本地跑的模型:ollama pull xxx(其中xxx在地址https://ollama.com/search中找到模型点开,复制即可模型的名称即可,比如:deepseek-r1:14b)
  • 查看已下载模型列表:ollama list
  • 启动运行下载好的模型:ollama run xxx

如何对话能回复正常,说明本地模型已运行成功。

打开浏览器,访问地址:http://127.0.0.1:11434,如果看到运行的提示,说明模型 API 地址也正常。

第二步,配置本地模型

启动 OpenClaw 配置。

openclaw config

选择本地配置。

选择 models 配置。

选择 Custom Provider 回车。

应该是本机,我的 OpenClaw 和 Ollama 都在一起,地址默认是正确的,在后面加上 /v1 直接回车。如果 Ollama 是安装在其它服务器,对应把 127.0.0.1 修改为对应机器 IP 即可。

粘贴 API key。

本地模型一般不校验密钥,但不能留空,可以随意填写,比如 ollamalocal-key。

端点兼容性选择 OpenAI-compatible,回车。

API 端点兼容性选项,这些选项告诉 OpenClaw 应该用什么样的格式去调用你的模型服务。

  • OpenAI-compatible (Uses /chat/completions)

    这是最常见的选择,表示你的本地模型服务(如 Ollama、LocalAI、vLLM 等)提供了与 OpenAI 官方 API 兼容的接口,特别是使用了 /chat/completions 这个端点。绝大多数本地模型工具都兼容 OpenAI API 格式,包括你正在使用的 Ollama。

  • Anthropic-compatible

    这个选项适用于 Anthropic 公司的 Claude 模型 API 格式,如果你连接的是 Anthropic 的官方 API 或模拟其格式的本地服务,才需要选这个。本地模型一般不会用这种格式。

  • Unknown (detect automatically)

    让 OpenClaw 自动探测你的 API 服务格式。虽然方便,但可能探测失败或误判,尤其是在本地网络环境下。建议不依赖自动探测,而是明确指定兼容类型。

输入模型名称,这里使用安装好的 deepseek-r1:14b。

回车会进入验证阶段,稍等待会提示校验结果。提示 Endpoint ID,默认回车。

输入模型别名,为这个模型端点起一个容易记住的别名,方便后续在频道或任务中快速选择。

提示配置已更新,选择 Continue 完成模型的配置。

可以看到本地 OpenClaw 配置文件已增加了模型相关配置。

第三步,启动测试模型

启动 OpenClaw,测试已配置的本地模型。

openclaw gateway

如果输出的日志中,看到模型标识是否为第二步配置的模型。

在聊天中对话,发现后台有个报错:

agent/embedded\] embedded run agent end: runId=5553cb9c-b707-4c61-8724-156dd9bd8c28 isError=true model=deepseek-r1:14b provider=custom-127-0-0-1-11434 error=400 registry.ollama.ai/library/deepseek-r1:14b does not support tools

查了下,原因是:OpenClaw 的 Agent 模式会尝试让模型使用工具(Tools),例如调用文件系统操作、执行命令等。deepseek-r1:14b 模型(及其在 Ollama 上的版本)目前不支持工具调用,因此 OpenClaw 返回 400 错误。

这里我更换下刚刚下载的 qwen3.5:0.8b,步骤详细参考第二步,更换后重启 OpenClaw 测试。

然后在聊天中对话测试即可,可以看到本地模型已调用成功。

我配置成功了,你呢?Good Luck!

相关推荐
鲁邦通物联网7 小时前
架构实战:分布式 机器人梯控 系统的边缘解耦与状态机设计
机器人·机器人梯控·agv梯控·非侵入式采集·机器人乘梯·机器人自主乘梯·agv机器人梯控
kobesdu13 小时前
【ROS2实战笔记-12】rosshow:终端里的盲文可视化与无头机器人的现场调试
笔记·机器人·ros·移动机器人
x***r15114 小时前
node-v0.12.2-x86安装步骤详解(附Node.js历史版本与32位配置教程)
windows
小小小米粒14 小时前
Collection单列集合、Map(Key - Value)双列集合,多继承实现。
java·开发语言·windows
workflower14 小时前
具身智能行业应用-生活服务业
大数据·人工智能·机器人·动态规划·生活
蜡台14 小时前
Python包管理工具pip完全指南-----2
linux·windows·python
大刘讲IT14 小时前
AI重塑企业信息价值标准:从“系统供给”到“用户定义”的企业数字化新范式
人工智能·经验分享·ai·制造
流年似水~15 小时前
MCP协议实战:从零搭建一个让Claude能“看见“数据库的工具服务
数据库·人工智能·程序人生·ai·ai编程
哥布林学者15 小时前
深度学习进阶(十三)可变形卷积 DCN
机器学习·ai
桔子雨15 小时前
【PicoBox】基于 C# + PicoServer,面向 AI 生成网页的托管工具
ai·picoserver·轻量web框架