配置 OpenClaw 使用 Ollama 本地模型

  1. 前提条件

    确保已安装并运行 Ollama 服务,且模型 qwen3-vl:2b 已下载。

  2. 配置步骤

    修改 OpenClaw 配置文件,指定 Ollama 作为模型提供商并设置默认模型。

  3. 验证配置

    通过 TUI 界面进行对话测试,确认模型正常工作。

  4. 高级配置

    可根据需要添加更多模型或调整参数如 contextWindowmaxTokens

  5. 注意事项

    • 确保 Ollama 服务地址与配置中的 baseUrl 一致。
    • 模型 ID 必须与 Ollama 中的模型名称匹配。
    • 若模型支持多模态,可在 input 字段中添加 "image" 等类型。

编辑 ~/.openclaw/openclaw.json 文件,添加或修改以下配置内容:

json 复制代码
{
  "agents": {
    "defaults": {
      "models": {"ollama":{}},
      "model": {"primary": "ollama/qwen3-vl:2b"}
    }
  },
  "models": {
    "providers": {
      "ollama":{
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3-vl:2b",
            "name": "Qwen3 VL 2B",
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

重启 OpenClaw 网关服务

配置完成后需要重启网关服务使更改生效:

bash 复制代码
openclaw gateway restart

测试对话功能

使用 OpenClaw 的 TUI 界面测试对话功能:

bash 复制代码
openclaw tui
相关推荐
本旺21 小时前
【Openclaw 】完美解决 Codex 认证失败
ai·codex·openclaw·小龙虾·gpt5.4
最初的↘那颗心1 天前
Agent 实战:构建第一个 Agent 与记忆系统设计
java·大模型·agent·spring ai·记忆系统
Swift社区1 天前
容错、动态、大模型:OpenClaw的三大关键词
openclaw
仙人掌_lz1 天前
OpenClaw 飞书渠道配置问题解决备忘录
飞书·openclaw
小手智联老徐1 天前
OpenClaw 三小时连更三个版本
llm·ai编程·openclaw
最初的↘那颗心1 天前
Agent 核心原理:本质、ReAct 框架与工具设计最佳实践
大模型·agent·react·spring ai·工具设计
前端不太难1 天前
深度解析:OpenClaw 多智能体系统四大支柱
人工智能·状态模式·openclaw
gz7seven1 天前
大模型学习笔记------微调之LoRA
lora·大模型·大模型微调·lora原理
竹之却1 天前
【Agent-阿程】AI先锋杯·14天征文挑战第14期-第1天-大模型微调技术实战
人工智能·机器学习·lora·大模型·qlora·微调技术
SP八岐大兔1 天前
NPM管理OpenClaw安装、卸载及运维命令
运维·前端·npm·openclaw