Windows系统 OpenClaw+Ollama+飞书/QQ

一、方案概述

本方案针对Windows系统,完成 OpenClaw+ Ollama+ 飞书/QQ的完整安装、配置与联动,适配你的硬件配置(16G内存推荐运行Ollama 7B轻量模型,符合日常使用需求),全程附带操作截图提示、常见问题解决及注意事项,确保新手可顺利完成部署,最终实现"通过飞书/QQ发送指令,由OpenClaw调度Ollama本地模型完成响应"的核心功能。

核心架构逻辑:飞书/QQ(用户交互入口)→ OpenClaw(AI智能体,负责消息路由、技能调度)→ Ollama(本地运行大模型,提供推理能力)→ OpenClaw → 飞书/QQ(返回响应结果),全程本地运行。

二、前置准备

2.1 硬件检查(适配你Windows)

如下的性能以一台浦东电脑为例。如i5 8代 CPU,16G内存等。

  • CPU:i5 8代(满足OpenClaw、Ollama运行需求,7B模型推理无压力,13B模型不推荐,会导致内存占用过高、卡顿);

  • 内存:16G(符合Ollama 7B模型最低内存要求,建议关闭其他占用内存的软件,如浏览器、办公软件,避免安装和运行时卡顿);

  • 磁盘:预留至少10G空闲空间(Ollama模型约4-6G,OpenClaw及依赖约1-2G,飞书/QQ约1-2G,建议安装在D盘,避免占用C盘系统空间);

  • 网络:稳定宽带(用于下载安装包、依赖及Ollama模型,建议全程联网;OpenClaw安装需临时科学上网,否则会出现依赖下载失败);

  • 系统:Windows 10(64位)及以上(目前一般默认预装Windows 10/11,若系统版本过低,需先升级,避免兼容性问题)。

2.2 系统环境准备

  1. 关闭杀毒软件(360、腾讯电脑管家等):部分杀毒软件会误判OpenClaw、Ollama安装包为病毒,导致安装失败,安装完成后再重新开启;

  2. 确认电脑登录名为全英文:若登录名为中文名(如"张三"),需新建英文用户(控制面板→用户账户→管理账户→新建账户),否则OpenClaw安装会出现路径错误;

  3. 开启PowerShell管理员权限:右键开始菜单→选择"Windows PowerShell (管理员)",后续OpenClaw安装需使用此权限;

  4. 上网配置:提前准备上网工具,确保可正常访问Internet。

  5. 补充说明(针对Chocolatey提示):若安装过程中弹出Chocolatey相关提示,分两种情况处理,均不影响本方案所有软件的安装与联动(本方案无需依赖python、visualstudio2022-workload-vctools这两个升级包): 1. 若提示"'choco' was found... An existing Chocolatey installation was detected":说明电脑已安装Chocolatey,脚本不会重复安装,属于正常现象,无需操作;若需升级Chocolatey本身,可输入命令choco upgrade chocolatey,无需卸载现有版本。 2. 若提示"Chocolatey upgraded 0/2 packages":说明系统已安装python、visualstudio2022-workload-vctools最新版本,或该包与本方案无关,直接按ENTER退出即可,无需额外处理。 补充:若现有Chocolatey安装异常(无法正常运行),可按提示备份相关文件夹(C:\ProgramData\chocolatey),手动删除该文件夹后重新安装,再继续本方案操作。

2.3 工具下载

所有安装包优先从官方渠道下载,避免第三方捆绑软件,下载后保存至桌面或D盘"安装包"文件夹,方便查找:

|----------|-------------------------------------|-----------------------------------------------------|
| 软件名称 | 官方下载地址 | 备注 |
| OpenClaw | 无需提前下载,通过npm命令安装 | 需先安装Node.js依赖 |
| Ollama | https://ollama.com/download | 下载Windows版本(OllamaSetup.exe) |
| Node.js | https://nodejs.org/en/download | 下载Windows Installer(64位),版本≥22.x(OpenClaw核心依赖) |
| Git | https://git-scm.com/install/windows | 下载64位版本(Git for Windows/x64 Setup),OpenClaw安装需依赖Git |
| CMake | https://cmake.org/download/ | 下载Windows 64位安装包,OpenClaw编译需依赖 |
| 飞书 | https://www.feishu.cn/download | 下载Windows版本,用于交互入口 |
| QQ | https://im.qq.com/download/ | 下载Windows版本,备选交互入口(二选一即可) |

如下截图展示下载的文件:

1.Ollama

2.Node.js

3.Git

4.Cmake

三、逐软件安装与配置(按顺序操作)

3.1 第一步:安装依赖包

如下的安装包按照你下载的来,这里只做示例展示。

3.1.1 安装Node.js(版本≥22.x)

  1. 双击下载的Node.js安装包(如node-v22.0.0-x64.msi),弹出安装向导,点击"Next";

  2. 勾选"我接受许可协议",点击"Next";

  3. 选择安装路径(建议D:\Program Files\nodejs,避免C盘),点击"Next";

  4. 关键步骤:勾选"Automatically install the necessary tools for native modules"(自动安装原生模块所需工具),点击"Next",后续会自动弹出PowerShell窗口安装配套工具,无需操作,等待其自动完成即可;

  5. 点击"Install",开始安装,等待5-10分钟(视网络速度而定);

  6. 安装完成后,点击"Finish",关闭安装向导;

  7. 验证安装:打开新的PowerShell(管理员),输入命令 node -vnpm -v,若分别显示版本号(如v22.0.0、10.5.0),则安装成功。

3.1.2 安装Git

  1. 双击下载的Git安装包(如Git-2.45.0-64-bit.exe),点击"Next";

  2. 选择安装路径(建议D:\Program Files\Git),点击"Next";

  3. 后续步骤全部默认,一路点击"Next",最后点击"Install",等待安装完成;

  4. 验证安装:打开PowerShell(管理员),输入命令 git --version,显示版本号(如git version 2.45.0.windows.1),则安装成功。

3.1.3 安装CMake

  1. 双击下载的CMake安装包(如cmake-3.29.0-windows-x86_64.msi),点击"Next";

  2. 勾选"我接受许可协议",点击"Next";

  3. 选择安装路径(建议D:\Program Files\CMake),点击"Next";

  4. 勾选"Add CMake to the system PATH for all users"(将CMake添加到系统环境变量),点击"Next";

  5. 点击"Install",等待安装完成,点击"Finish";

  6. 验证安装:打开PowerShell(管理员),输入命令 cmake --version,显示版本号(如cmake version 3.29.0),则安装成功。

3.2 第二步:安装Ollama

Ollama支持在本地运行Llama 3、Qwen2.5等上百款大模型,结合你的16G内存,推荐安装7B轻量模型,兼顾性能与体验。

  1. 双击下载的OllamaSetup.exe安装包,弹出安装窗口,点击"Install";

  2. 关键步骤:安装过程中,务必勾选"Add to PATH"(将Ollama添加到系统环境变量),否则后续无法通过命令行调用;

  3. 等待安装完成(约1-2分钟),安装成功后,系统托盘会出现Ollama图标(若未出现,手动打开Ollama应用);

  4. 验证安装:打开PowerShell(管理员),输入命令 ollama --version,显示版本号(如ollama version is 0.12.0),则安装成功;

  5. 启动Ollama服务;

  6. 方法一:在PowerShell中输入命令 ollama serve,保持该终端窗口运行(不要关闭),后续下载模型、联动OpenClaw需依赖该服务;

  7. 方法二:直接打开Ollama应用(系统托盘点击图标),会自动后台启动服务,可通过命令 curl http://localhost:11434/api/tags 验证服务是否正常运行(返回模型列表即正常)。

  8. 配置国内镜像(必做,解决模型下载慢问题):

  9. 临时配置(仅当前终端有效):在PowerShell中输入 $env:OLLAMA_MODEL_SERVER="https://mirror.ollama.com"

  10. 永久配置(推荐):右键"此电脑"→"属性"→"高级系统设置"→"环境变量"→在"用户变量"中点击"新建",变量名填写 OLLAMA_MODEL_SERVER,变量值填写 https://mirror.ollama.com,点击"确定"保存,重启PowerShell生效。

  11. 下载大模型(推荐Qwen2.5:7B),按需选择你的模型:

  12. 确保Ollama服务已启动(终端运行ollama serve或Ollama应用已打开);

  13. 新开一个PowerShell窗口,输入命令 ollama pull qwen2.5:7b,开始下载模型(约4-6G,视网络速度而定,下载过程中不要关闭终端);

  14. 下载完成后,输入命令 ollama list,若显示"qwen2.5:7b",则模型下载成功;

  15. 测试模型:输入命令ollama run qwen2.5:7b,输入任意问题(如"你好"),模型能正常回复,说明Ollama运行正常。

  16. 安全配置(可选,提升安全性):

  17. 设置API密钥:输入命令 $env:OLLAMA_API_KEY="你的密码"(替换为自定义强密码),防止未授权访问;

  18. 限制本地访问:输入命令 $env:OLLAMA_HOST="127.0.0.1:11434",仅允许本地访问,避免暴露到公网。

3.3 第三步:安装OpenClaw

OpenClaw(原Clawdbot)是连接聊天平台(飞书/QQ)与大模型(Ollama)的核心网关,负责消息路由、技能调度,需通过npm命令安装,全程使用管理员权限PowerShell操作。

1.打开管理员权限PowerShell,尝试通过如下目录安装。

复制代码
iwr -useb https://openclaw.ai/install.ps1 | iex 

但是安装过程中出现如下的报错。

这里可以尝试在powershell中输入如下命令解决------"修改执行策略"。

复制代码
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser

如果还是报错,可以通过如下目录手动安装(也可以输入命令npm install -g openclaw@latest --verbose --prefer-offline,开始安装(约5-10分钟,终端会滚动显示安装日志,耐心等待);):

复制代码
npm install -g openclaw@latest

2.安装完成验证

复制代码
PS C:\Users\Administrator> openclaw --version
OpenClaw 2026.3.8 (3caab92)

后续的步骤:

  1. 输入命令 openclaw onboard --install-daemon,启动配置向导并安装后台守护进程(实现开机自启);

  2. 步骤1:风险提示,用方向键←选择"YES",回车确认(知晓安全风险);

  3. 步骤2:配置模式,直接回车选择"QuickStart"(快速配置模式,适合新手);

  4. 步骤3:选择大模型提供商,用方向键选择"Ollama"(本地模型,无需API Key),回车;

  5. 步骤4:设置Ollama模型,选择已下载的"qwen2.5:7b",回车(若未显示,确认Ollama服务已启动、模型已下载成功);

  6. 步骤5:工作目录设置,默认路径为"~/clawd"(用于存储配置、记忆文件),直接回车保留默认;

  7. 步骤6:安装交互渠道插件(选择飞书/QQ,二选一即可):

  8. 若选择飞书:回车选择"安装飞书插件",后续配置飞书参数;

  9. 若选择QQ:回车选择"安装QQ插件",后续配置QQ参数;

  10. 插件安装完成后,回车选择默认下载方式,继续配置。

  11. 步骤7:跳过额外KEY设置,后续6个KEY配置均直接回车跳过;

  12. 步骤8:Hooks配置,按空格键选择默认选项,回车确认;

  13. 配置完成后,系统会自动启动OpenClaw守护进程,终端显示"配置成功",则OpenClaw与Ollama联动完成。

  14. 验证OpenClaw与Ollama联动:输入命令 openclaw test llm,若显示"Ollama模型连接成功",且能正常返回模型响应,说明联动正常。

3.4 第四步:安装飞书

3.4.1 飞书安装与配置(推荐,联动OpenClaw更稳定)

  1. 双击下载的飞书安装包(如Feishu-Win-x64.exe),点击"自定义安装";

  2. 选择安装路径(建议D:\Program Files\Feishu),取消勾选"开机自动启动"(节省内存),点击"立即安装";

  3. 安装完成后,打开飞书,用手机飞书扫码登录(或账号密码登录);

  4. 飞书机器人配置(联动OpenClaw,核心步骤):

    1. 打开飞书开放平台:https://open.feishu.cn/app?lang=zh-CN,用飞书账号登录;

    2. 点击"创建应用"→选择"企业自建应用",填写应用名称(如OpenClaw-AI)、描述(AI代理,联动所选模型供应商),点击"创建";

    3. 进入应用详情页,点击左侧"凭证与基础信息",记录"App ID"和"App Secret"(后续配置需使用);

    4. 权限配置(必做,否则无法收发消息):点击左侧"权限管理"→"添加权限",添加以下必选权限(权限范围选择"全部员工"):

      • contact:user.base:readonly(获取员工基础信息);

      • im:message(收发消息基础权限);

      • im:message.p2p_msg:readonly(读取机器人私信消息);

      • im:message.group_at_msg:readonly(接收群内@机器人消息);

      • im:message:send_as_bot(以机器人身份发送消息);

      • im:resource(上传/下载媒体资源)。

    5. 事件回调配置:点击左侧"事件与回调"→"回调配置",订阅方式选择"使用长连接接收回调",勾选确认并保存(无需公网域名,OpenClaw插件会通过长连接通信);

    6. OpenClaw配置飞书参数:打开管理员PowerShell,输入命令 openclaw config set feishu.appId 你的App IDopenclaw config set feishu.appSecret 你的App Secret(替换为步骤184记录的凭证);

    7. 重启OpenClaw服务:输入命令openclaw restart,使飞书配置生效;

    8. 测试联动:在飞书内搜索创建的机器人(OpenClaw-AI),发送消息(如"你好,用所选模型回答我"),机器人能正常返回所选模型供应商的响应,说明飞书与OpenClaw、模型供应商联动成功。

四、架构联动测试

4.1 整体联动测试步骤

  1. 确认所有服务已启动:

    1. 若选择本地模型(Qwen):Ollama服务需启动(系统托盘有Ollama图标,或PowerShell运行ollama serve);

    2. OpenClaw服务:输入命令 openclaw status,显示"running";

    3. 飞书/QQ:已登录,机器人配置完成;

    4. 若选择公网模型(MiniMax等):确保网络正常,无需额外启动模型服务。

  2. 测试指令:在飞书/QQ中给机器人发送指令,如"帮我写一段50字的工作问候语""解释一下什么是AI模型";

  3. 验证结果:机器人应在10-30秒内返回响应(视模型推理速度而定),响应内容由所选模型供应商生成(公网模型需联网,本地模型无需联网);

  4. 异常处理:若未收到响应,参考"第五部分 常见故障排查"逐步排查。

4.2 核心功能测试

  • 多轮对话:连续发送指令(如"上一段问候语修改得更正式"),机器人应能记住上下文,生成连贯响应;

  • 模型供应商切换:输入命令 openclaw config set llm.provider 新供应商名称(如openclaw config set llm.provider MiniMax),补充对应API Key(公网模型),重启服务后,测试切换是否正常;

  • 技能调用:输入指令"帮我列出D盘下的文件",OpenClaw会调用本地技能,结合所选模型生成结果(需提前安装文件操作技能)。

相关推荐
重启编程之路3 小时前
OpenClaw 本地小模型Ollama(qwen2.5:7b)联网搜索配置指南
openclaw
Learn Forever5 小时前
【OpenClaw】OpenClaw 在windows下的安装及飞书的接入
人工智能·openclaw
weixin_462446235 小时前
OpenClaw 完整部署指南:从用户创建、安装配置到 Nginx 反向代理
运维·nginx·openclaw
零千叶5 小时前
养龙虾,本地部署OpenClaw
人工智能·macos·openclaw
Neolnfra6 小时前
腾讯WorkBuddy 接入飞书实战手册:从安装到配置
飞书·openclaw·workbuddy
m_136877 小时前
OpenClaw v2026.3.12 离线源码构建与 Docker 部署完整教程
运维·docker·容器·openclaw
魔极客7 小时前
1panel 中安装的 OpenClaw 快速接入飞书
飞书
研究点啥好呢7 小时前
3月13日GitHub热门项目推荐 | AI代理的安全思考
人工智能·安全·网络安全·ai·github·openclaw