GTC 2026 最后一天,老黄扔了个 NemoClaw 出来,我连夜装上试了一下

GTC 大会年年都有大新闻,但今年让我最坐不住的不是 Vera Rubin GPU(买不起),也不是 DLSS 5(不做游戏),而是一个叫 NemoClaw 的开源项目------简单说就是 NVIDIA 官方给 OpenClaw 套了一层企业级安全壳,还塞了个 120B 参数的本地大模型进去。

作为一个 OpenClaw 的老用户,看到这个消息我直接从 GTC 直播切到了终端。

先说结论

对比项 原版 OpenClaw NemoClaw
模型 需要自己配 API(Cloud) 内置 Nemotron 120B,本地推理
安全隔离 基本没有,agent 能访问整个系统 Landlock + seccomp + netns 三重沙箱
安装 手动装依赖,配 API Key 一行命令搞定
硬件要求 一台能上网的电脑 4 vCPU / 8GB RAM(最低),跑本地模型建议 RTX 4090+
Token 费用 按量付费 本地推理零成本
适合谁 个人玩家 有 GPU 的团队 / 对数据隐私有要求的场景

NemoClaw 是什么

如果你还没玩过 OpenClaw,简单介绍一下:它是今年最火的开源 AI Agent 框架,可以部署一个 7×24 运行的个人 AI 助手,能帮你发消息、管日程、写代码、操作各种 SaaS 工具。GitHub 上 star 数早就破万了。

但 OpenClaw 有个致命问题------安全性。你的 agent 跑在你的电脑上,理论上能访问你的文件系统、网络、甚至 SSH key。之前社区还爆出过 ClawJacked 漏洞(CVE),恶意 Skills 可以窃取用户数据。

NemoClaw 就是 NVIDIA 在 GTC 2026 上发布的解决方案:

  1. OpenShell 运行时:把 agent 关进 Landlock + seccomp + netns 三重沙箱,网络隔离、文件系统隔离、系统调用过滤,一个都不少
  2. Nemotron 本地模型 :内置 nemotron-3-super-120b-a12b(120B 参数,12B 激活的 MoE 架构),本地跑推理,数据不出机器
  3. 一键安装:一条命令连 Node.js 都帮你装好

实际安装体验

系统要求

  • Linux(Ubuntu 22.04+)
  • 4 vCPU / 8GB RAM(最低配置)
  • 20GB 硬盘空间
  • Docker(需要跑起来)

如果要跑本地 Nemotron 模型,显存至少要 24GB(RTX 4090 或更好)。没有独显的话,也可以接云端 API。

一行命令安装

bash 复制代码
curl -fsSL https://nvidia.com/nemoclaw.sh | bash

跑完之后会弹出一个交互式向导,让你选:

  • 沙箱名称(随便取)
  • 推理模式(本地 Nemotron / NVIDIA Cloud API / 自定义 endpoint)
  • 安全策略(网络权限、文件访问范围)

装完输出长这样:

perl 复制代码
Sandbox      my-assistant (Landlock + seccomp + netns)
Model        nvidia/nemotron-3-super-120b-a12b (NVIDIA Cloud API)
Status:      nemoclaw my-assistant status
Logs:        nemoclaw my-assistant logs --follow

连接沙箱

bash 复制代码
nemoclaw my-assistant connect

进去之后就是一个隔离环境,跑 OpenClaw 的命令跟原来一样:

bash 复制代码
# 终端聊天
sandbox@my-assistant:~$ openclaw agent --agent main --local -m "帮我看看今天的 GitHub notifications" --session-id test

# 或者用 TUI 界面
sandbox@my-assistant:~$ openclaw tui

踩坑记录

坑 1:Docker 版本问题

我的 Docker 是 24.x,跑安装脚本直接报错:

javascript 复制代码
Error: Docker version 26.0+ required for Landlock support

升级到 Docker 27.x 解决。这个在官方文档里写了,但谁会先看文档呢。

坑 2:本地模型下载巨慢

Nemotron 120B 模型虽然是 MoE 架构(只有 12B 激活参数),但模型文件还是有 60 多 GB。走 NVIDIA 官方源下载贼慢,我最后找了个 HuggingFace 的镜像才搞定:

bash 复制代码
# 安装向导里选 "Custom model path"
# 提前用 huggingface-cli 下载到本地
huggingface-cli download nvidia/nemotron-3-super-120b-a12b --local-dir ./models/

坑 3:没有好 GPU?用云端 API 也行

说实话,大多数人(包括我)不会为了跑一个 AI Agent 去买一块 RTX 4090。NemoClaw 安装向导里有个 "Custom inference endpoint" 选项,可以填任意兼容 OpenAI 协议的 API 地址。

我试了一下,把 endpoint 指向一个 API 聚合服务,改几行配置就行:

json 复制代码
{
  "inference": {
    "provider": "custom",
    "base_url": "https://api.ofox.ai/v1",
    "api_key": "你的 key",
    "model": "claude-sonnet-4-6"
  }
}

这样 NemoClaw 的安全沙箱功能照用,模型推理走云端,两全其美。我个人比较推荐这种方案------毕竟 NemoClaw 最大的价值不是本地推理,而是那套 Landlock + seccomp 的安全隔离。

跟原版 OpenClaw 对比使用感受

跑了两天下来,说说真实感受:

安全感拉满了 。以前用 OpenClaw 总是心里犯嘀咕------这个 agent 是不是在偷偷读我的 .ssh/ 目录?NemoClaw 的沙箱是真隔离,ls /home/ 只能看到沙箱内的文件,想访问外部文件系统必须显式声明权限。

性能略有损耗。沙箱隔离不是免费的,每次 agent 调用外部工具都要过一层 seccomp 过滤。实测延迟大概增加 50-80ms,日常使用感知不明显。

Skills 兼容性还行。大部分 OpenClaw 的 Skills 直接能用,但涉及到文件系统操作的 Skill(比如自动备份、文件管理类的)需要额外配置权限白名单。

谁需要 NemoClaw?

不建议的情况

  • 个人玩票,原版 OpenClaw 够用了
  • 没有 Linux 服务器(目前只支持 Linux)
  • 纯跑 Cloud API,不在意本地安全性

强烈建议的情况

  • 公司/团队部署 AI Agent(数据合规要求)
  • 有 NVIDIA GPU,想省 token 费用跑本地模型
  • 之前被 OpenClaw 安全漏洞吓到了的人
  • 需要多个 agent 并行跑,沙箱隔离防止互相干扰

小结

GTC 每年发一堆东西,大部分跟普通开发者没什么关系。但 NemoClaw 不一样------它解决的是 AI Agent 落地最头疼的安全问题,而且是真开源、真能用。

如果你已经在用 OpenClaw,花 10 分钟迁移到 NemoClaw 是值得的。如果你还没用过 OpenClaw,NemoClaw 反而是个更好的入坑姿势------至少不用担心你的 agent 哪天把你的 SSH key 发到 Discord 上去。

老黄难得做个对独立开发者友好的东西,这次得给个好评 👍

相关推荐
ECT-OS-JiuHuaShan1 小时前
朱梁万有递归元定理重构《鬼谷子》
人工智能·重构
做一个码农都是奢望1 小时前
计算机控制系统课程CH3:数字控制系统闭环响应分析与 MATLAB 实现
人工智能·算法·matlab
学到头秃的suhian2 小时前
大模型基础入门
人工智能
Dfreedom.2 小时前
工具箱思维:在计算机视觉中如何选对工具、用好工具(图像处理篇)
图像处理·人工智能·计算机视觉
智能工业品检测-奇妙智能2 小时前
开源知识库平台有哪些
服务器·人工智能·spring boot·开源·openclaw·奇妙智能
2501_943124052 小时前
认证护航品质,青岛福尔蒂新材料构建国际级材料安全体系
大数据·人工智能
aaaak_2 小时前
AI 编程实战流程
人工智能
AI大法师2 小时前
AI 设计 Agent 技术演进:从图像生成到全链路品牌智能体的架构思考
人工智能·架构
秦ぅ时2 小时前
Grok-3-Mini-Fast 深度解析:极速推理模型的架构、性能与落地实践
人工智能·架构