最近刷 GitHub,发现了清华、人大、面壁智能等一起开源了一个项目,叫 EdgeClaw。
让你在本地部署「小龙虾」,数据完全不出门。
市面上主流的小龙虾 OpenClaw,本身是部署在你本地电脑上的,但做推理还是得调云端大模型。
你的消息、文件、工具调用结果,都会发到云端 API 处理。
密码啥的实际上都经过了第三方云服务。
EdgeClaw 就是冲着这个问题来的。
它基于 OpenClaw,但加了一套隐私保护机制 ,而且可以用本地模型处理任务:数据全程不离开你的机器,断网也能跑。
01、它和 OpenClaw 什么关系?
EdgeClaw 是 OpenClaw 的安全增强版。
OpenClaw 有的东西它全都有:20+ IM 接入、浏览器操作、文件读写、50+ Skills、子 Agent 系统等等。

多出来的核心东西就三样:
① GuardClaw 隐私路由中间件: 自动安全分级
② 推荐本地模型: 支持面壁全系列 MiniCPM 小钢炮模型,通过 Ollama 运行,也支持其他模型
③ EdgeClaw Box 硬件方案: 开箱即用
一句话类比:OpenClaw 是一台发动机,EdgeClaw 是装好安全系统的整车。
arduino
项目地址:https://github.com/OpenBMB/EdgeClaw
02、怎么做到数据不出门?
EdgeClaw 的核心创新是一个叫 GuardClaw 的隐私中间件。
逻辑很简单:自动判断每条消息的敏感程度,然后决定走云端还是本地。

三级自动分级
每一条用户消息、每一次工具调用、每一段 Agent 输出,都会被自动分为三个等级:S1(安全)、S2(敏感)、S3(私密)
- S1 级别的内容直接发给云端大模型处理
- S2 级别会先脱敏再转发云端
- S3 级别则完全由本地模型处理,绝不外传。
整个过程全自动,不需要你手动选这个用本地,那个用云端。
当然,如果你什么都不想上云,也可以全部走本地模型处理,等于就是一个纯本地的 OpenClaw。
分级路由只是默认模式,给你一个选择:简单任务可以让云端大模型发挥更强的能力,敏感任务留在本地零风险。
怎么检测?
双引擎,一个快一个准:
规则引擎(毫秒级): 正则匹配 + 关键词扫描,一眼识别密码、密钥、身份证号这些明确模式。速度快到几乎无感
本地模型引擎(1-2 秒) :用本地 MiniCPM 做语义理解,处理更微妙的情况。
比如你说「帮我看看工资单有没有问题」,消息本身没有敏感词,但模型理解「工资单」意味着财务隐私,自动标为 S3
两个引擎并行跑,取最高敏感级别。

EdgeClaw 本地推理推荐使用面壁自研的 MiniCPM 全系列端侧模型。
从轻量级到高性能,整个 MiniCPM 家族都支持:MiniCPM 4.1、MiniCPM-V 等,你可以根据硬件条件自由选择合适的型号。
装好 Ollama 之后,一条命令就能跑起来:
arduino
ollama run openbmb/minicpm4.1

硬件要求也不算高,量化版通常 8GB 内存就能跑起来,选更大参数的型号对应提高内存就行。
03、全链路保护
这里有个细节我觉得挺关键的。
AI Agent 不是简单的一问一答。
它有完整的执行流程------读文件、调工具、生成子任务、写入记忆。
所以 EdgeClaw 不只是在入口检查一次,而是在整个流程里设了 6 个核心检查点:
消息到达 → 路由分流 → 工具调用拦截 → 结果检查 → 会话记录 → 记忆同步

另外还额外加了出站消息扫描和子 Agent 隐私注入,一共 8 个 Hook,把安全网铺到了每个角落。
连记忆都是隔离的。
云端模型只能看到脱敏后的对话历史,完整记忆只有本地模型才能访问。
从根本上杜绝了隐私数据通过上下文窗口泄露给云服务。
04、EdgeClaw Box:开箱即用的硬件方案
除了开源软件,面壁还推出了一款配套硬件产品 EdgeClaw Box。

目前已适配松果派、英伟达 DGX Spark、苹果 Mac Mini 等硬件,插上电就能用,不需要技术背景。
插上电就能用,不需要技术背景。
多设备、多模型、海量通用 + 行业专属 Skills,开箱即用,无需部署。
而且数据留本地,商业不泄密,简单任务跑本地小模型零 Token,复杂任务才调云端大模型。
写在最后
EdgeClaw 由清华 THUNLP、中国人民大学、AI9Stars、面壁智能和 OpenBMB 联合开发。
它的核心思路其实挺清晰的:不是让你在隐私安全和AI 能力之间二选一,而是两个都要。
公开数据享受云端大模型的最强推理,敏感数据留在本地零风险。