熬夜看完 GTC 2026 Keynote,这 5 个发布跟开发者最相关(不只是显卡)

昨晚(3月16日)老黄在圣何塞又穿着皮衣上台了,两个小时的 keynote 信息量大到爆炸。朋友圈刷屏的都是 Vera Rubin 新架构和 DLSS 5,但说实话,这些对我们写代码的人来说太远了。

我把整场看完,帮大家筛出了 5 个真正跟开发者有关的东西。尤其是第一个,可能会改变你用 AI Agent 的方式。

先说结论

发布 一句话概括 开发者相关度
NemoClaw OpenClaw 的「企业安全版」,开源 ⭐⭐⭐⭐⭐
Nemotron 3 Super 120B 参数只激活 12B,1M 上下文,免费 ⭐⭐⭐⭐⭐
OpenShell Runtime Agent 安全沙箱,防止 AI 搞破坏 ⭐⭐⭐⭐
DGX Spark 个人 AI 超算,128GB 统一内存 ⭐⭐⭐
cuDF 加速 Spark/DuckDB/Polars 提速 5 倍 ⭐⭐⭐

1. NemoClaw:OpenClaw 终于有「成年人版本」了

这是整场 keynote 我最兴奋的部分。

用过 OpenClaw 的都知道,它强是真的强,但安全问题也是真的头疼。装个第三方 Skill 你都不知道它会不会偷偷读你的 .env 文件,企业里更不敢随便用。

NemoClaw 本质上就是 OpenClaw + 企业级安全层。NVIDIA 做了这几件事:

  • 多层安全护栏:策略引擎控制 Agent 能访问哪些文件、能调哪些 API
  • 网络隔离:Agent 的网络请求可以被防火墙策略过滤
  • 隐私保护:内置数据脱敏,防止 Agent 把敏感信息泄露给外部模型
  • 审计日志:每个 Agent 操作都有完整记录
bash 复制代码
# 一行命令启动安全沙箱版 OpenClaw
nemoclaw init --profile enterprise
nemoclaw agent start --policy strict

关键是:完全开源,硬件无关。不是只能跑在 NVIDIA GPU 上,AMD、Intel 也行。这一点很良心。

目前还是 alpha 阶段,官方也说了"expect rough edges",但方向绝对是对的。企业用 AI Agent 最大的阻力就是安全合规,NemoClaw 算是给了一个标准答案。

GitHub 地址已经放出来了,感兴趣的可以去 star 一下,后面我会出一篇本地部署教程。

2. Nemotron 3 Super:120B 的脑子,12B 的开销

这个模型的架构设计让我眼前一亮。

Nemotron 3 Super 是一个 Mamba-Transformer 混合架构的 MoE 模型:总参数 120B,但每次推理只激活 12B。什么概念?你用 12B 的算力成本,拿到了 120B 级别的效果。

几个硬参数:

  • 1M token 上下文窗口(原生支持,不是外挂 RAG)
  • 专为 Agent 场景优化:多轮对话、工具调用、代码生成
  • 支持推理(reasoning)、语音、视觉,真正的多模态

最骚的是:OpenRouter 上可以免费用

python 复制代码
import openai

client = openai.OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key="your-key"
)

response = client.chat.completions.create(
    model="nvidia/nemotron-3-super-120b-a12b",
    messages=[
        {"role": "system", "content": "你是一个代码审查专家"},
        {"role": "user", "content": "帮我 review 这段 Python 代码,重点看安全问题:\n\n" + code}
    ],
    temperature=0.3
)
print(response.choices[0].message.content)

我实际测了一下,代码审查场景确实不错,尤其是能结合上下文理解整个项目结构(得益于 1M 的上下文窗口)。推理速度也比想象中快,毕竟只激活 12B 参数。

如果你在国内访问 OpenRouter 不太稳定,也可以试试 ofox.ai 这类聚合平台,改个 base_url 就行,延迟会低很多。

3. OpenShell Runtime:给 AI Agent 套上「安全气囊」

这个发布没有 NemoClaw 那么抢眼,但我觉得同样重要。

OpenShell 是一个 Agent 执行沙箱 。简单说,就是让 AI Agent 在一个隔离环境里跑,就算它想 rm -rf / 也只能删沙箱里的东西。

为什么这个很重要?因为现在的 AI Agent 越来越「自主」了------Claude Code 能直接改你的代码,OpenClaw 能操作你的电脑。如果 Agent 出了 bug 或者被 prompt injection 攻击,后果可能很严重。

OpenShell 的做法:

yaml 复制代码
# openShell 配置示例
sandbox:
  filesystem:
    writable: ["/workspace", "/tmp"]
    readable: ["/home/user/project"]
    blocked: ["/etc", "/root", "~/.ssh"]
  network:
    allowed_hosts: ["api.openai.com", "api.anthropic.com"]
    blocked_ports: [22, 3306, 5432]
  resources:
    max_memory: "4GB"
    max_cpu_time: "300s"

这种粒度的控制,对企业部署 Agent 来说简直是刚需。之前我们团队内部也踩过坑------Agent 不小心把测试环境的数据库给 truncate 了(别问我怎么知道的)。

4. DGX Spark:普通人也能有 AI 超算?

老黄这次发布了两款「个人 AI 工作站」:

  • DGX Spark:128GB 统一内存,支持 4 台集群
  • DGX Station:748GB 显存,20 PFLOPS

DGX Spark 让我比较感兴趣的是价格定位------虽然具体价格没公布,但从「个人工作站」的定位来看,应该比传统服务器便宜不少。

对开发者的意义:

  1. 本地跑大模型:128GB 统一内存可以跑 70B 甚至更大的模型
  2. 微调不再需要云 GPU:本地迭代,省钱省时间
  3. 隐私敏感场景:数据不出机房

不过说实话,对大多数开发者来说,API 调用依然是性价比最高的方案。买一台 DGX Spark 的钱够你调几年 API 了。除非你有特殊的隐私需求或者需要频繁微调,否则没必要折腾硬件。

5. cuDF:数据处理提速 5 倍,Python 开发者狂喜

这个更新比较低调,但对做数据开发的同学来说是实实在在的提升。

cuDF 是 NVIDIA 的 GPU 加速 DataFrame 库,GTC 上宣布了对主流引擎的适配:

  • Apache Spark → 5x 加速
  • DuckDB → 5x 加速
  • Polars → 5x 加速
  • Pandas(通过 cudf.pandas)→ 自动 GPU 加速
python 复制代码
# 零代码改动,自动 GPU 加速
%load_ext cudf.pandas
import pandas as pd

# 以下代码自动在 GPU 上执行
df = pd.read_parquet("huge_dataset.parquet")
result = df.groupby("category").agg({"value": "sum"}).sort_values("value")

%load_ext cudf.pandas 这一行就够了,后面的 pandas 代码不用改。这个体验确实丝滑。

踩坑提醒

  1. NemoClaw 现在还是 alpha,生产环境别急着上。先在个人项目里玩玩,等 beta 再考虑正式用
  2. Nemotron 3 Super 免费有限制,OpenRouter 的免费额度不是无限的,高频使用建议买个 plan
  3. cuDF 需要 NVIDIA GPU,没有 N 卡的同学只能眼馋了
  4. DGX Spark 的 4 台集群模式目前软件支持还在完善中

我的看法

这届 GTC 的核心主题其实就一个字:Agent

老黄不再只是卖显卡了,他在构建一个从模型(Nemotron)到框架(NemoClaw)到运行时(OpenShell)到硬件(DGX)的 Agent 全栈。这个布局挺清晰的------当 AI Agent 成为新的计算范式,NVIDIA 要做的不只是提供算力,还要提供整个基础设施。

对我们开发者来说,最实际的收益是:

  1. NemoClaw 让企业 Agent 落地有了安全保障
  2. Nemotron 3 Super 提供了一个免费且强大的 Agent 专用模型
  3. OpenShell 让你敢放手让 Agent 干活

如果你正在做 AI Agent 相关的开发,这三个东西值得你这周末花几个小时研究一下。


我是一个独立开发者,日常用各种 AI API 搞些有意思的项目。如果你也在折腾 AI 开发,欢迎关注交流。

相关推荐
疲惫的神熊猫2 小时前
Linux(Ubuntu)部署Ollama+Qwen(千问)本地大模型实战01
人工智能
数字生命卡兹克2 小时前
AI,正在吞噬所有软件。
人工智能
深视智能科技2 小时前
AIR 系列:极端环境下的高速成像方案
人工智能·科技·相机
HyperAI超神经3 小时前
基于2.5万临床数据,斯坦福大学发布首个原生3D腹部CT视觉语言模型,Merlin在752类任务中全面领先
人工智能·深度学习·神经网络·机器学习·3d·语言模型·cpu
飞Link3 小时前
具身智能:从大脑到四肢,AI跨越物理世界的全景指南
人工智能·机器人
KKKlucifer3 小时前
数据资产化背景下的分类分级技术架构设计
人工智能·安全·重构
蓝绿色~菠菜3 小时前
Multi-Agent 架构全景:10 种协作模式深度解析
人工智能·架构
智算菩萨3 小时前
ChatGPT 5.4在英语学习中的应用:经典专四英语散文《Spring Thaw》赏析
人工智能·学习·ai·chatgpt·机器翻译
balmtv3 小时前
GPT-4o推理能力深度拆解:统一多模态与端到端推理的架构革命
人工智能·架构