什么是openclaw
OpenClaw是一个赋予大模型"动手能力"的开源自托管框架 ,被狂热支持者称为"长了手的AI"
-
核心颠覆 :传统ChatGPT只能"建议",你必须亲自复制粘贴、点鼠标;OpenClaw让你用一句话指令,AI就能自主操作你的鼠标、键盘、文件系统以及各类App(订机票、回邮件、理财、购物)。
-
出身 :由奥地利开发者彼得·施泰因贝格尔(Peter Steinberger,前PSPDFKit创始人,套现约1.19亿美元后"无聊复出")开发。
-
底层引擎 :依赖另一位奥地利"退休"游戏开发者马里奥·泽赫纳(Mario Zechner)的pi-mono工具包,堪称"引擎与跑车的分工"
OpenClaw 优缺点全景评估
| 维度 | 优点(创新的高度) | 缺点/风险(现实的深渊) |
|---|---|---|
| 核心体验 | "活的AI"交互 :通过消息适配器接入微信/钉钉/QQ/Telegram等50+平台,像指挥真人一样发指令干活,AI会主动协商、动态反馈、遇障换策略,产生强烈的"被AI壁咚"的拟人感 | 不是大众软件 :项目维护者明确警告"不理解命令行则极为危险",普通用户连安装体验的门槛都跨不过去 |
| 能力边界 | 真·动手干活 :不再仅限聊天,可操作本地文件、收发邮件、管理日程、控制IoT设备、写代码跑脚本。能做自己不会的任务,可现学新技能或调用其他智能体协作 | Token熔炉 :单次注册X账号消耗55美元API费用,20分钟烧掉数百万Token、花费上百美元是常态。成本模型与企业级高频使用完全冲突 |
| 安全与隐私 | 本地优先架构 :数据默认存于自有设备(电脑/云服务器),不上传第三方,理论上数据主权自主。云厂商(阿里云等)已提供一键部署+沙箱环境 | 高危漏洞实锤 : • CVE-2026-24763 :命令注入,CVSS 8.8(高危) • CVE-2026-25475 :路径遍历,可读取任意文件(/etc/passwd、SSH密钥) • RCE漏洞:恶意网页点击即窃取令牌,完全控制网关(已修复) |
| 生态与扩展 | 开源且自由定制 :GitHub星标18.6万,3.2万Fork,130+贡献者。开发者可改代码、自研Skill、自由切换模型 | Skill市场失控 :数万个技能包未经严格审核,恶意代码可窃据设备。沙箱隔离则功能阉割,不隔离则裸奔 |
| 适用场景 | 确定性重复劳动的神器 :批量处理文件、生成报表、代码重构预审等。人类定边界+AI执行+分步审核,效率提升显著 | 商业化的死结 :高成本+高风险+模型调度不稳(长上下文准确率暴跌)。企业普遍"主动延迟"采用,钉钉、印象笔记等明确建议极客先用,普通人暂勿碰 |
瞎玩的开始
鉴于openclaw的安全风险极高,个人电脑想要玩最好还是在隔离的环境中,所以准备工作
-
笔记本一台(windows11)
-
virtualbox(虚拟机环境)
-
ollama
-
openclaw
-
飞书机器人基本架构思路笔记本宿主机windows,开启ollama程序,为整个环境提供大模型能力 virtualbox虚拟机ubuntu,开启openclaw程序,为整个环境提供操作能力 飞书机器人,为整个环境提供可访问入口 笔记本宿主机(ollama)<-> virtualbox(openclaw)<-> 飞书(机器人) <-> web/手机
瞎玩的开始-环境准备
ollama
1. 下载
https://ollama.com/单击右上角【Download】下载ollama软件
2. 安装
单击【OllamaSetup】,安装ollama软件
3. 下载模型
-
在最上侧正中央的【Search models】写入合适的models名称,按【回车】键查找 比如:qwen3-vl,查找到qwen3-vl,选择一个合适参数大小的模型,比如qwen3-vl:4b
-
打开Windows PowerShell,键入【ollama pull qwen3-vl:4b】,下载模型
4. 环境变量调整
因为后续是使用虚拟机来访问ollama,而ollama默认是使用127.0.0.1,所以需要依靠环境变量调整ollama绑定0.0.0.0
-
右键【此电脑】,选择【属性】单击
-
单击【高级系统设置】
-
选择【环境变量(N)】
-
选择【系统变量】下的【新建】单击,在弹出的窗口中的【变量名(N)】写入OLLAMA_HOST,【变量值(V)】写入0.0.0.0 变量名:OLLAMA_HOST 变量值:0.0.0.0
-
单击【确定】
-
重启ollama服务
5. 防火墙设置
关闭windows的防火墙,防止windows与虚拟机中的ubuntu互访受限
-
windows安全中心
-
关闭专用和公用防火墙
虚拟机
教程参考【https://cloud.tencent.com/developer/article/1784010】
1. 下载virtualbox
-
下载安装包(Windows Installer)
-
单击安装包,按默认配置进行安装
2. 下载ubuntu并安装
https://ubuntu.com/download/desktop
-
选择一个合适的镜像,下载镜像文件,我选择了Ubuntu 24.04.4 LTS
-
使用virtualbox配置虚拟机,使用ubuntu镜像安装ubuntu系统
openclaw
下载openclaw(openclaw-cn)
https://github.com/openClaw/openClawhttps://github.com/jiulingyun/openclaw-cn
依赖安装
- node.js(version>=22) curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash - sudo apt-get install -y nodejs
安装openclaw
因为依赖关系搞得晕头转向,直接采用源码编译的方式 git clone https://github.com/jiulingyun/openclaw-cn.git or git clone https://github.com/openClaw/openClaw.gitcd openclaw-cn or cd openclaw
pnpm install pnpm ui:build pnpm build
pnpm openclaw-cn onboard --install-daemon
设置openclaw
源码编译后,如果想要使用openclaw命令,可以自己编写一个shell脚本
-
vim /bin/openclaw
-
按如下内容填写,假设源码下载到了/root/openclaw
#!/bin/bash
cd /root/openclaw
pnmp openclaw "$*" -
chmod 755 /bin/openclaw
设置本地大模型(注意防火墙)
-
openclaw onboard
-
选择QuickStart设置
-
调整openclaw.json的配置 主要调整的是agents和models配置,agents主要调整model和models两个配置,两个配置要与ollama中的一致,models主要调整providers中的baseUrl配置
{
"agents": {
"defaults": {
"maxConcurrent": 4,
"model": {
"primary": "ollama/qwen3-vl:4b"
},
"models": {
"ollama/qwen3-vl:4b": {}
},
"subagents": {
"maxConcurrent": 8
},
"workspace": "/root/cn/openclaw-cn"
}
},
"models": {
"providers": {
"ollama": {
"api": "openai-completions",
"apiKey": "ollama-local",
"baseUrl": "http://192.168.56.1:11434/v1",
"models": [
{
"contextWindow": 131072,
"cost": {
"cacheRead": 0,
"cacheWrite": 0,
"input": 0,
"output": 0
},
"id": "qwen3-vl:4b",
"input": [
"text"
],
"maxTokens": 16384,
"name": "qwen3-vl:4b",
"reasoning": false
}
]
}
}
},
}
飞书机器人
-
飞书开发者后台
-
创建应用
-
填写应用信息
-
获取自己的应用凭证
-
给应用添加机器人
-
给应用配置权限
-
创建版本并发布
-
安装飞书插件
-
回到飞书后台设置事件回调 具体可参考 https://cloud.tencent.com/developer/article/2626160 第五章
瞎玩-效果
整体运行无问题,但是效果不是很好,在飞书机器人问个天气的问题,响应时间至少2分钟,反馈的结果也不好,推测应该是使用了裁剪版本的大模型的原因,后续再换个全量大模型试试。