老黄发布新核弹 B300,英伟达:B200 已破 DeepSeek-R1 推理世界纪录

皮衣老黄 ,带着最强 AI 芯片 GB300 闪亮登场 "AI 超级碗"GTC,燃爆全场!

性能方面,和去年发布的 GB200 相比,推理性能是其 1.5 倍。

据悉,GB300 将在今年的下半年出货。

除此之外,老黄还预览(2026 年下半年发货)了英伟达下一代 AI 超级芯片,名字大变样------Vera Rubin

其实它的命名规则和 Grace Blackwell(GB)类似:Grace 是 CPU,Blackwell 是 GPU。

而 Vera Rubin 中的 Vera 是 CPU,Rubin 是 GPU。根据老黄的说法:

几乎所有细节都是新的。

从预览的性能来看,Vera Rubin 整体性能更是 GB300 的 3.3 倍。更具体一些:

  • Vera:CPU 的内存是 Grace 的 4.2 倍,内存带宽是 Grace 的 2.4 倍。

  • Rubin:将配备 288GB 的 HBM4。

在 Vera Rubin 之后的下一代 GPU(2027 年下半年),英伟达会将其命名为 Rubin Ultra,性能直接拉到 GB300 的 14 倍

一个直观的对比,如下图所示:

更多的具体性能对比,是这样的:

性能上的提升,也正应了老黄在现场说的那句话:

大规模推理是一种极限计算。

Inference at-scale is extreme computing.

不仅如此,就连 Rubin 之后的下一代 GPU,老黄也给亮出来了------将以 Feynman 来命名。

而纵观整场 GTC,我们可以轻松提炼老黄提及最多的几个关键词:tokens推理Agentic AI

但除此之外,还有一个比较有意思的关键词------DeepSeek

英伟达官方博客称:

实现了 DeepSeek-R1 推理性能世界纪录。

每个用户每秒可处理超过 250 个 token;实现每秒超过 30000 个 token 的最大吞吐量。

但这项纪录采用的是 B200,英伟达表示随着 Blackwell Ultra 等新 GPU 的出现,纪录还将继续被打破。

而老黄在现场体现传统 LLM 和推理 LLM 的区别时,也是拿着 DeepSeek-R1 来举例:

嗯,微妙,着实有点微妙。

那么除了一系列新 GPU 之外,还有什么?我们继续往下看。

推出两款个人 AI 超级计算机

首先,第一款个人 AI 超级计算机,叫做 DGX Spark

它就是老黄在今年 1 月份 CES 中发布的那个全球最小的个人 AI 超级计算机 Project Digits,这次取了个正式的名字。

DGX Spark 售价 3000 美元(约 21685 元),大小和 Mac Mini 相当。

它采用的是英伟达 GB10 芯片,能够提供每秒 1000 万亿次的 AI 运算,用于微调和推理最新 AI 模型。

其中,GB10 采用了 NVLink-C2C 互连技术,提供 CPU+ gpu 的相干内存模型,带宽是第五代 PCIe 的 5 倍。

值得一提的是,英伟达官网已经开发预定了哦~

至于第二款个人 AI 超级电脑,则是 DGX Station

DGX Station 所采用的,正是今天推出的 GB300,也是首个采用这款芯片的 AI 电脑。

其性能如下:

  • 拥有 784GB 的相干内存空间

  • 拥有英伟达的 ConnectX-8 超级网卡,支持高达 800Gb/s 的网络速度

  • 拥有 Nvidia 的 CUDA-X AI 平台,可访问 NIM 微服务和 AI Enterprise

用老黄的话来说就是:

这就是 PC 应该有的样子。

This is what a PC should look like.

至于上市赶时间,则是将于今年晚些时候从华硕、BOXX、戴尔、惠普、Lambda 和美超微等厂商处推出。

**△**搭载 GB300 的 DGX Station 主板

而根据英伟达官方的介绍,这两款个人 AI 超级计算机,是面向研究人员、数据科学家、AI 开发者和学生设计的。

除此之外,老黄在这届 GTC 上还涉足了以太网,推出全球首个面向 AI 的以太网网络平台------Spectrum-X

它由英伟达的 Spectrum-4 以太网交换机和 BlueField-3 SuperNIC 共同发力,能为 AI、机器学习和自然语言处理等提供高性能支持。

相比传统以太网,Spectrum-X 可将 AI 网络性能提升 1.6 倍,提高 AI 云的电力效率。

以及还包括基于硅光学的 Spectrum-X Photonics 和 Quantum-X Photonics 网络交换平台,用于使用硅光学的超大规模数据中心。

新的网络交换平台将端口数据传输速度提升至 1.6Tb/s,总传输速度达到 400Tb/s,使数百万个 GPU 能够无缝协同工作。

还开源了一系列软件

除了硬件,英伟达这次在软件开源方面也有几个新动作。

其中最重磅的,当属发布 NVIDIA Dyamo ,一个用于加速 AI 模型推理的分布式推理服务库

老黄将其称为 "AI 工厂的操作系统",核心目标在于提高推理性能的同时降低 Test-Time 算力消耗。

按照英伟达的说法,在 NVIDIA Blackwell 上使用 Dynamo 优化推理,能让 DeepSeek-R1 的吞吐量提升 30 倍

至于背后原因,主要在于 Dynamo 可以通过动态调整 GPU 资源应对请求波动,并优化数据卸载到成本更低的存储设备,从而降低推理成本并提高效率。

目前 Dynamo 已完全开源,支持 PyTorch、SGLang、NVIDIA TensorRTyTM 以及 vLLM,在 GitHub 获取后即可将推理工作分配到多达 1000 个 NVIDIA GPU 芯片。

此外,英伟达还宣布开源新的 AI 推理模型------Llama Nemotron,该系列模型也曾出现在今年 1 月的 CES 上。

据介绍,Llama Nemotron 基于开源 Llama 基础模型构建,采用英伟达最新技术和高质量数据集进行剪枝和训练,优化了计算效率和准确性。

为了直观展示其性能,老黄在大会上将它和 Llama 3.3(70B)以及 DeepSeek R1 Llama (70B)进行了对比,下图展示了它们在 Agentic 任务上的平均准确率(横轴)与每秒处理的 tokens 数量(纵轴):

可以看出,新的推理模型以 49B 参数量性能远超另外两个模型,在 Agentic 任务中表现更为突出。

目前 Nano 和 Super 模型可在 NIM 微服务中获取,Ultra 模型即将推出。

与此同时,英伟达在自动驾驶具身智能方面也有新进展。

大会开始不久,老黄即宣布英伟达与通用汽车达成合作:

通用将在自动驾驶上使用英伟达的 AI 技术。

在这之后,英伟达正式发布了端到端 自动驾驶汽车全栈综合安全系统 NVIDIA Halos

这个系统主要将 NVIDIA 的汽车硬件和软件解决方案与尖端 AI 研究相结合,以确保从云端到车辆的自动驾驶汽车(AVs)的安全开发。

介绍过程中,老黄多次提到了 "安全性" 这个词,并公开声称:

我们是世界上第一家对每一行代码进行安全评估的公司

落实到具体上,Halos 系统主要在三个互补的层面提供支持:

  • 技术层面:包括平台安全、算法安全和生态系统安全;

  • 开发层面:涵盖设计阶段、部署阶段和验证阶段的安全防护措施;

  • 计算层面:从 AI 训练到部署的全过程,利用三种强大的计算平台,分别是 NVIDIA DGX 用于 AI 训练,NVIDIA Omniverse 和 NVIDIA Cosmos 在 NVIDIA OVX 上运行用于模拟,以及 NVIDIA DRIVE AGX 用于部署。

到了大会的最后阶段,老黄宣布英伟达与 Google DeepMind 和 Disney Research 正合作开发下一代开源仿真物理模型 Newton

据英伟达介绍,Newton 基于 NVIDIA Warp 构建,支持与 MuJoCo Playground 或 NVIDIA Isaac Lab 等学习框架兼容。

它主要用于机器人模拟训练,使用之后可以帮助研究人员安全、加速且低成本地训练 / 开发 / 测试 / 验证机器人控制算法和原型设计。

同时,英伟达还同步推出了 Isaac GR00T N1,号称全球首个开源的、完全可定制的人形机器人基础模型。

它采用双系统架构,灵感来自人类思考模式,包括快速思考的动作模型(System 1)和慢速思考的决策模型(System 2)。

在大会演示中,GR00T N1 能够轻松泛化常见的任务,如抓取、移动物体以及在双臂之间转移物品,或执行需要长时间推理的复杂任务。

最后的最后,老黄在谢幕之前还成功 "召唤" 出了配有 GR00T N1 模型的机器人------Blue(星球大战机器人)。

虽然过程中有些不听话的 "叛逆行为",但好在还是给了点老黄面子(doge)。

One More Thing

今年的 GTC 大会,除了老黄的主题演讲,还有一件事最值得期待:

那就是今年首次设立的 "量子日" 活动,届时老黄将与 D-Wave Quantum 和 Rigetti Computing 等十余家量子计算行业领军企业的高管同台,讨论量子计算的技术现状、潜力以及未来发展方向。

要知道今年年初时,老黄一句 "量子计算还需 20 年才实用",相关概念股曾应声腰斩。

所以大家这次都在观望,老黄是否又会 "语出惊人",相关探讨是否会对量子计算产业产生更大影响。

咱们继续坐等答案揭晓~

老黄演讲回看地址:
www.youtube.com/watch?v=_wa...

欢迎在评论区留下你的想法!

--- ---

相关推荐
梦想画家1 分钟前
PyTorch系列教程:基于LSTM构建情感分析模型
人工智能·pytorch·lstm
知舟不叙9 分钟前
机器学习——深入浅出理解朴素贝叶斯算法
人工智能·python·算法·机器学习
CodeJourney.24 分钟前
AI赋能办公:开启高效职场新时代
数据库·人工智能·算法
yscript31 分钟前
linux系统安装和激活conda
linux·运维·人工智能·python·深度学习·conda
szxinmai主板定制专家39 分钟前
基于FPGA的3U机箱轨道交通网络通讯板,对内和主控板、各类IO板通信,对外可进行RS485、CAN或MVB组网通信
大数据·人工智能·嵌入式硬件·fpga开发·边缘计算
海特伟业1 小时前
森林防火预警广播监控系统:以4G为纽带架构融合智能广播、远程监控、AI智能识别、告警提示、太阳能供电于一体的新一代森林防火预警系统
人工智能·架构
KangkangLoveNLP1 小时前
简单循环神经网络(RNN):原理、结构与应用
人工智能·pytorch·rnn·深度学习·神经网络·机器学习·transformer
未来之窗软件服务1 小时前
数字人本地部署之llama-本地推理模型
人工智能·llama·数字人
扶摇升1 小时前
大型语言模型(LLM)部署中的内存消耗计算
人工智能·语言模型·自然语言处理
xiao5kou4chang6kai41 小时前
基于ChatGPT、DeepSeek、GIS与Python机器学习的地质灾害风险评估、易发性分析、信息化建库及灾后重建
人工智能·gis·地质灾害