GTC 大会年年都有大新闻,但今年让我最坐不住的不是 Vera Rubin GPU(买不起),也不是 DLSS 5(不做游戏),而是一个叫 NemoClaw 的开源项目------简单说就是 NVIDIA 官方给 OpenClaw 套了一层企业级安全壳,还塞了个 120B 参数的本地大模型进去。
作为一个 OpenClaw 的老用户,看到这个消息我直接从 GTC 直播切到了终端。
先说结论
| 对比项 | 原版 OpenClaw | NemoClaw |
|---|---|---|
| 模型 | 需要自己配 API(Cloud) | 内置 Nemotron 120B,本地推理 |
| 安全隔离 | 基本没有,agent 能访问整个系统 | Landlock + seccomp + netns 三重沙箱 |
| 安装 | 手动装依赖,配 API Key | 一行命令搞定 |
| 硬件要求 | 一台能上网的电脑 | 4 vCPU / 8GB RAM(最低),跑本地模型建议 RTX 4090+ |
| Token 费用 | 按量付费 | 本地推理零成本 |
| 适合谁 | 个人玩家 | 有 GPU 的团队 / 对数据隐私有要求的场景 |
NemoClaw 是什么
如果你还没玩过 OpenClaw,简单介绍一下:它是今年最火的开源 AI Agent 框架,可以部署一个 7×24 运行的个人 AI 助手,能帮你发消息、管日程、写代码、操作各种 SaaS 工具。GitHub 上 star 数早就破万了。
但 OpenClaw 有个致命问题------安全性。你的 agent 跑在你的电脑上,理论上能访问你的文件系统、网络、甚至 SSH key。之前社区还爆出过 ClawJacked 漏洞(CVE),恶意 Skills 可以窃取用户数据。
NemoClaw 就是 NVIDIA 在 GTC 2026 上发布的解决方案:
- OpenShell 运行时:把 agent 关进 Landlock + seccomp + netns 三重沙箱,网络隔离、文件系统隔离、系统调用过滤,一个都不少
- Nemotron 本地模型 :内置
nemotron-3-super-120b-a12b(120B 参数,12B 激活的 MoE 架构),本地跑推理,数据不出机器 - 一键安装:一条命令连 Node.js 都帮你装好
实际安装体验
系统要求
- Linux(Ubuntu 22.04+)
- 4 vCPU / 8GB RAM(最低配置)
- 20GB 硬盘空间
- Docker(需要跑起来)
如果要跑本地 Nemotron 模型,显存至少要 24GB(RTX 4090 或更好)。没有独显的话,也可以接云端 API。
一行命令安装
bash
curl -fsSL https://nvidia.com/nemoclaw.sh | bash
跑完之后会弹出一个交互式向导,让你选:
- 沙箱名称(随便取)
- 推理模式(本地 Nemotron / NVIDIA Cloud API / 自定义 endpoint)
- 安全策略(网络权限、文件访问范围)
装完输出长这样:
perl
Sandbox my-assistant (Landlock + seccomp + netns)
Model nvidia/nemotron-3-super-120b-a12b (NVIDIA Cloud API)
Status: nemoclaw my-assistant status
Logs: nemoclaw my-assistant logs --follow
连接沙箱
bash
nemoclaw my-assistant connect
进去之后就是一个隔离环境,跑 OpenClaw 的命令跟原来一样:
bash
# 终端聊天
sandbox@my-assistant:~$ openclaw agent --agent main --local -m "帮我看看今天的 GitHub notifications" --session-id test
# 或者用 TUI 界面
sandbox@my-assistant:~$ openclaw tui
踩坑记录
坑 1:Docker 版本问题
我的 Docker 是 24.x,跑安装脚本直接报错:
javascript
Error: Docker version 26.0+ required for Landlock support
升级到 Docker 27.x 解决。这个在官方文档里写了,但谁会先看文档呢。
坑 2:本地模型下载巨慢
Nemotron 120B 模型虽然是 MoE 架构(只有 12B 激活参数),但模型文件还是有 60 多 GB。走 NVIDIA 官方源下载贼慢,我最后找了个 HuggingFace 的镜像才搞定:
bash
# 安装向导里选 "Custom model path"
# 提前用 huggingface-cli 下载到本地
huggingface-cli download nvidia/nemotron-3-super-120b-a12b --local-dir ./models/
坑 3:没有好 GPU?用云端 API 也行
说实话,大多数人(包括我)不会为了跑一个 AI Agent 去买一块 RTX 4090。NemoClaw 安装向导里有个 "Custom inference endpoint" 选项,可以填任意兼容 OpenAI 协议的 API 地址。
我试了一下,把 endpoint 指向一个 API 聚合服务,改几行配置就行:
json
{
"inference": {
"provider": "custom",
"base_url": "https://api.ofox.ai/v1",
"api_key": "你的 key",
"model": "claude-sonnet-4-6"
}
}
这样 NemoClaw 的安全沙箱功能照用,模型推理走云端,两全其美。我个人比较推荐这种方案------毕竟 NemoClaw 最大的价值不是本地推理,而是那套 Landlock + seccomp 的安全隔离。
跟原版 OpenClaw 对比使用感受
跑了两天下来,说说真实感受:
安全感拉满了 。以前用 OpenClaw 总是心里犯嘀咕------这个 agent 是不是在偷偷读我的 .ssh/ 目录?NemoClaw 的沙箱是真隔离,ls /home/ 只能看到沙箱内的文件,想访问外部文件系统必须显式声明权限。
性能略有损耗。沙箱隔离不是免费的,每次 agent 调用外部工具都要过一层 seccomp 过滤。实测延迟大概增加 50-80ms,日常使用感知不明显。
Skills 兼容性还行。大部分 OpenClaw 的 Skills 直接能用,但涉及到文件系统操作的 Skill(比如自动备份、文件管理类的)需要额外配置权限白名单。
谁需要 NemoClaw?
不建议的情况:
- 个人玩票,原版 OpenClaw 够用了
- 没有 Linux 服务器(目前只支持 Linux)
- 纯跑 Cloud API,不在意本地安全性
强烈建议的情况:
- 公司/团队部署 AI Agent(数据合规要求)
- 有 NVIDIA GPU,想省 token 费用跑本地模型
- 之前被 OpenClaw 安全漏洞吓到了的人
- 需要多个 agent 并行跑,沙箱隔离防止互相干扰
小结
GTC 每年发一堆东西,大部分跟普通开发者没什么关系。但 NemoClaw 不一样------它解决的是 AI Agent 落地最头疼的安全问题,而且是真开源、真能用。
如果你已经在用 OpenClaw,花 10 分钟迁移到 NemoClaw 是值得的。如果你还没用过 OpenClaw,NemoClaw 反而是个更好的入坑姿势------至少不用担心你的 agent 哪天把你的 SSH key 发到 Discord 上去。
老黄难得做个对独立开发者友好的东西,这次得给个好评 👍