瞎玩openclaw

什么是openclaw

OpenClaw是一个赋予大模型"动手能力"的开源自托管框架 ,被狂热支持者称为"长了手的AI"

  • 核心颠覆 :传统ChatGPT只能"建议",你必须亲自复制粘贴、点鼠标;OpenClaw让你用一句话指令,AI就能自主操作你的鼠标、键盘、文件系统以及各类App(订机票、回邮件、理财、购物)。

  • 出身 :由奥地利开发者彼得·施泰因贝格尔(Peter Steinberger,前PSPDFKit创始人,套现约1.19亿美元后"无聊复出")开发。

  • 底层引擎 :依赖另一位奥地利"退休"游戏开发者马里奥·泽赫纳(Mario Zechner)的pi-mono工具包,堪称"引擎与跑车的分工"

OpenClaw 优缺点全景评估

维度 优点(创新的高度) 缺点/风险(现实的深渊)
核心体验 "活的AI"交互 :通过消息适配器接入微信/钉钉/QQ/Telegram等50+平台,像指挥真人一样发指令干活,AI会主动协商、动态反馈、遇障换策略,产生强烈的"被AI壁咚"的拟人感 不是大众软件 :项目维护者明确警告"不理解命令行则极为危险",普通用户连安装体验的门槛都跨不过去
能力边界 真·动手干活 :不再仅限聊天,可操作本地文件、收发邮件、管理日程、控制IoT设备、写代码跑脚本。能做自己不会的任务,可现学新技能或调用其他智能体协作 Token熔炉 :单次注册X账号消耗55美元API费用,20分钟烧掉数百万Token、花费上百美元是常态。成本模型与企业级高频使用完全冲突
安全与隐私 本地优先架构 :数据默认存于自有设备(电脑/云服务器),不上传第三方,理论上数据主权自主。云厂商(阿里云等)已提供一键部署+沙箱环境 高危漏洞实锤 : • CVE-2026-24763 :命令注入,CVSS 8.8(高危) • CVE-2026-25475 :路径遍历,可读取任意文件(/etc/passwd、SSH密钥) • RCE漏洞:恶意网页点击即窃取令牌,完全控制网关(已修复)
生态与扩展 开源且自由定制 :GitHub星标18.6万,3.2万Fork,130+贡献者。开发者可改代码、自研Skill、自由切换模型 Skill市场失控 :数万个技能包未经严格审核,恶意代码可窃据设备。沙箱隔离则功能阉割,不隔离则裸奔
适用场景 确定性重复劳动的神器 :批量处理文件、生成报表、代码重构预审等。人类定边界+AI执行+分步审核,效率提升显著 商业化的死结 :高成本+高风险+模型调度不稳(长上下文准确率暴跌)。企业普遍"主动延迟"采用,钉钉、印象笔记等明确建议极客先用,普通人暂勿碰

瞎玩的开始

鉴于openclaw的安全风险极高,个人电脑想要玩最好还是在隔离的环境中,所以准备工作

  1. 笔记本一台(windows11)

  2. virtualbox(虚拟机环境)

  3. ollama

  4. openclaw

  5. 飞书机器人基本架构思路笔记本宿主机windows,开启ollama程序,为整个环境提供大模型能力 virtualbox虚拟机ubuntu,开启openclaw程序,为整个环境提供操作能力 飞书机器人,为整个环境提供可访问入口 笔记本宿主机(ollama)<-> virtualbox(openclaw)<-> 飞书(机器人) <-> web/手机

    瞎玩的开始-环境准备

ollama

1. 下载

https://ollama.com/单击右上角【Download】下载ollama软件

2. 安装

单击【OllamaSetup】,安装ollama软件

3. 下载模型

https://ollama.com/

  1. 在最上侧正中央的【Search models】写入合适的models名称,按【回车】键查找 比如:qwen3-vl,查找到qwen3-vl,选择一个合适参数大小的模型,比如qwen3-vl:4b

  2. 打开Windows PowerShell,键入【ollama pull qwen3-vl:4b】,下载模型

4. 环境变量调整

因为后续是使用虚拟机来访问ollama,而ollama默认是使用127.0.0.1,所以需要依靠环境变量调整ollama绑定0.0.0.0

  1. 右键【此电脑】,选择【属性】单击

  2. 单击【高级系统设置】

  3. 选择【环境变量(N)】

  4. 选择【系统变量】下的【新建】单击,在弹出的窗口中的【变量名(N)】写入OLLAMA_HOST,【变量值(V)】写入0.0.0.0 变量名:OLLAMA_HOST 变量值:0.0.0.0

  5. 单击【确定】

  6. 重启ollama服务

5. 防火墙设置

关闭windows的防火墙,防止windows与虚拟机中的ubuntu互访受限

  1. windows安全中心

  2. 关闭专用和公用防火墙

虚拟机

教程参考【https://cloud.tencent.com/developer/article/1784010】

1. 下载virtualbox

https://www.oracle.com/cn/virtualization/technologies/vm/downloads/virtualbox-downloads.html?source=:ow:o:p:nav:mmddyyVirtualBoxHero_cn&intcmp=:ow:o:p:nav:mmddyyVirtualBoxHero_cn

  1. 下载安装包(Windows Installer)

  2. 单击安装包,按默认配置进行安装

2. 下载ubuntu并安装

https://ubuntu.com/download/desktop

  1. 选择一个合适的镜像,下载镜像文件,我选择了Ubuntu 24.04.4 LTS

  2. 使用virtualbox配置虚拟机,使用ubuntu镜像安装ubuntu系统

openclaw

下载openclaw(openclaw-cn)

https://github.com/openClaw/openClawhttps://github.com/jiulingyun/openclaw-cn

依赖安装

  1. node.js(version>=22) curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash - sudo apt-get install -y nodejs

安装openclaw

因为依赖关系搞得晕头转向,直接采用源码编译的方式 git clone https://github.com/jiulingyun/openclaw-cn.git or git clone https://github.com/openClaw/openClaw.gitcd openclaw-cn or cd openclaw

pnpm install pnpm ui:build pnpm build

pnpm openclaw-cn onboard --install-daemon

设置openclaw

源码编译后,如果想要使用openclaw命令,可以自己编写一个shell脚本

  1. vim /bin/openclaw

  2. 按如下内容填写,假设源码下载到了/root/openclaw

    #!/bin/bash
    cd /root/openclaw
    pnmp openclaw "$*"

  3. chmod 755 /bin/openclaw

设置本地大模型(注意防火墙)

  1. openclaw onboard

  2. 选择QuickStart设置

  3. 调整openclaw.json的配置 主要调整的是agents和models配置,agents主要调整model和models两个配置,两个配置要与ollama中的一致,models主要调整providers中的baseUrl配置

    {
    "agents": {
    "defaults": {
    "maxConcurrent": 4,
    "model": {
    "primary": "ollama/qwen3-vl:4b"
    },
    "models": {
    "ollama/qwen3-vl:4b": {}
    },
    "subagents": {
    "maxConcurrent": 8
    },
    "workspace": "/root/cn/openclaw-cn"
    }
    },
    "models": {
    "providers": {
    "ollama": {
    "api": "openai-completions",
    "apiKey": "ollama-local",
    "baseUrl": "http://192.168.56.1:11434/v1",
    "models": [
    {
    "contextWindow": 131072,
    "cost": {
    "cacheRead": 0,
    "cacheWrite": 0,
    "input": 0,
    "output": 0
    },
    "id": "qwen3-vl:4b",
    "input": [
    "text"
    ],
    "maxTokens": 16384,
    "name": "qwen3-vl:4b",
    "reasoning": false
    }
    ]
    }
    }
    },
    }

飞书机器人

  1. 飞书开发者后台

  2. 创建应用

  3. 填写应用信息

  4. 获取自己的应用凭证

  5. 给应用添加机器人

  6. 给应用配置权限

  7. 创建版本并发布

  8. 安装飞书插件

  9. 回到飞书后台设置事件回调 具体可参考 https://cloud.tencent.com/developer/article/2626160 第五章

瞎玩-效果

整体运行无问题,但是效果不是很好,在飞书机器人问个天气的问题,响应时间至少2分钟,反馈的结果也不好,推测应该是使用了裁剪版本的大模型的原因,后续再换个全量大模型试试。

相关推荐
71ber1 小时前
RHCSE 实战笔记:Keepalived 企业级高可用集群深度解析
linux·服务器·keepalived
dong_beijing1 小时前
rtmp/flv直播源站搭建方法
服务器·centos·云计算
白太岁2 小时前
Muduo:(5) 主 Reactor 之 Acceptor 与 SubReactor 的分发
服务器·网络·c++·网络协议·tcp/ip
天上飞的粉红小猪2 小时前
数据链路层
linux·服务器·网络
开发者导航2 小时前
精选高质量网址资源的高效聚合综合性的网址导航:跳跳兔导航网
服务器·人工智能·程序人生·搜索引擎·开源软件
funnycoffee12310 小时前
linux系统DNS修改命令
linux·运维·服务器·linux dns
清漠23312 小时前
win11“网络和Internet“中无“以太网“这个选项解决记录
服务器·网络·数据库
袁小皮皮不皮12 小时前
数据通信20-IPv6基础
运维·服务器·网络·网络协议·智能路由器
醒醒该学习了!13 小时前
如何将json文件转成csv文件(python代码实操)
服务器·python·json