从芯片到生态,解析英伟达如何重塑边缘算力格局。
2025年3月,英伟达GTC大会以"AI超级碗"的姿态席卷全球科技界。英伟达 CEO 黄仁勋以标志性的黑色皮衣登上舞台,为全球科技爱好者带来了一场信息量巨大的主题演讲。

作为边缘计算领域的观察者,边缘计算社区 特别关注英伟达此次发布的边缘端硬件产品、软件生态优化及网络技术创新,这些技术不仅定义了未来AI与算力的发展方向,更将深刻影响边缘计算的落地场景与行业格局。
1、
边缘算力"平民化":桌面级AI设备开启新纪元
英伟达此次推出的两款桌面级产品------DGX Spark与DGX Station,标志着AI算力从云端向边缘端的全面渗透。

右侧小主机为DGX Spark
DGX Spark:体积仅如Mac Mini,搭载GB10芯片,提供1 PetaFLOPS算力,售价3000美元。它支持本地运行200B参数的大模型,适用于中小企业及开发者,显著降低边缘端AI部署门槛。
DGX Station:面向企业级私有推理系统,配备784GB统一内存,支持多任务并发处理,可构建本地化AI工厂,满足低延迟、高安全性的边缘场景需求。

行业意义:这两款产品将原本依赖数据中心的算力"下沉"至边缘端,契合DeepSeek等企业倡导的端侧模型优化趋势。例如,DeepSeek-R1通过稀疏化架构降低推理成本,而英伟达的硬件则提供了更高能效的本地化支持,形成"开源算法+高效硬件"的协同效应。
2、
Dynamo框架重构边缘推理效率
英伟达推出的开源推理框架Dynamo,通过分离式推理架构(Disaggregated Serving),将模型输入处理与生成阶段分配到不同GPU,实现资源利用率最大化。测试显示,该框架可将大语言模型(LLM)的Token生成效率提升3倍,单位算力成本降低40%。


在NVIDIA GB200 NVL72上提供开源 DeepSeek-R1 671B 推理模型时,NVIDIA Dynamo 将服务的请求数量增加了 30 倍,使其成为希望以最低成本运行以最大化代币收入的 AI 工厂的理想解决方案。
NVIDIA Dynamo 支持所有主要的 AI 推理后端,并具有大型语言模型 (LLM) 特定的优化,例如分解服务、以最低成本和最高效率加速和扩展 AI 推理模型。它将 在未来版本中作为NVIDIA AI Enterprise的一部分得到支持。
对边缘计算的启示:
动态资源调度:边缘端设备常面临算力波动问题,Dynamo的分布式架构可灵活分配算力,提升边缘节点稳定性。
低延迟优化:结合Blackwell Ultra芯片的11倍推理速度提升,边缘端实时交互应用(如智能客服、工业质检)将迎来突破。
3、
网络架构升级:CPO让百万卡集群成为可能
根据英伟达CEO黄仁勋的定义,AI工厂可以理解为一种新型数据中心,类似于传统工厂的生产模式,输入数据(原材料),通过计算和处理(能量转化),输出智能模型(有价值的产品)。随着AI工厂发展到前所未有的规模,网络必须不断发展以跟上步伐。CPO(光电共封装)将网络交换芯片和光模块共同装配在同一个插槽上,形成芯片和模组的共封装。CPO技术可以使芯片的集成度更高、性能更稳定,同时降低封装成本、提高封装效率。

英伟达与台积电联合开发的CPO(共封装光学)交换机,采用硅光子技术,将光模块直接集成至芯片,功耗降低40%,带宽密度提升1.6倍。其中,Spectrum-X与Quantum-X交换机支持液冷设计,为高密度边缘算力集群提供稳定网络基础。
"新一代AI工厂需要高效率和低维护成本,才能达到新一代工作负载所需的规模,"台积电董事长兼CEO魏哲家表示。"台积电的硅光解决方案结合了我们先进的芯片工艺和TSMC-SoIC 3D芯片封装的优势,帮助英伟达充分发挥AI工厂的能力,助力AI工厂扩展到100万GPU甚至更多,突破AI的边界。"

边缘场景应用前景:
5G基站与边缘节点:CPO技术可优化边缘数据中心的能效,支持自动驾驶、智慧城市等场景的实时数据传输。
超低延迟网络:未来结合Rubin架构的NVLink 1800GB/s带宽,边缘端多设备协同计算(如车路协同)将更高效。
4、
具身智能与机器人:边缘计算的"物理化"革命
英伟达宣布推出一系列全新技术,助力人形机器人开发。其中包括全球首个开源且完全可定制的基础模型 NVIDIA Isaac GR00T N1,该模型可赋能通用人形机器人实现推理及各项技能。 已推出的 GR00T N1 是 NVIDIA 一系列可完全定制模型中的首个模型。NVIDIA 将对这一系列模型进行预训练,并面向全球机器人开发者发布。

"通用机器人的时代已经到来," 英伟达 CEO 黄仁勋表示。 "借助 NVIDIA Isaac GR00T N1 以及新的数据生成和机器人学习框架,全球机器人开发者将开启 AI 时代的全新篇章。"
GR00T N1 推动人形机器人开发者社区发展
受人类认知原理的启发,GR00T N1 基础模型采用双系统架构。"系统 1"是一个快速思考的动作模型,反映人类的本能反应或直觉。"系统 2"是慢思考模型,用于进行经过深度思考的决策制定。
系统 2 由视觉语言模型提供支持,它会对所处环境和接收到的指令进行推理,从而规划行动。系统 1 随后将这些规划转化为精确、连续的机器人运动。系统 1 基于人类演示数据和 NVIDIA Omniverse™ 平台生成的海量合成数据进行训练。
GR00T N1 可轻松适应并完成通用任务,如单手或双手抓取、移动物体,将物体从一只手臂转移到另一只手臂,或执行需要长语境和通用技能组合的多步骤任务。这些功能可应用于物品搬运、包装和检查等各种使用场景中。
"人形机器人的未来开发重点在于适应能力和学习能力,"1X Technologies 首席执行官 Bernt Børnich 表示。 "NVIDIA 的 GR00T N1 模型在机器人推理和技能方面实现了重大突破。 我们仅需最少量的后训练数据,就能在 NEO Gamma 上全面部署,这进一步推进了我们的使命------我们创造的机器人不是工具,而是伙伴,可以为人类提供有意义、有无限价值的帮助。"
边缘计算的价值点:
本地化训练与推理:机器人需在边缘端实时处理环境数据,DGX Station等设备可提供低延迟的本地算力支持。
仿真与现实的闭环:通过Omniverse生成海量训练数据,结合边缘端部署,缩短机器人从实验室到工厂的落地周期。
5、
行业趋势与挑战:边缘算力的未来图谱
从"训练"到"推理"的重心转移:随着DeepSeek等企业推动长思维链推理模型,边缘端需平衡算力效率与成本,英伟达的Blackwell Ultra及Dynamo框架正回应这一需求。

开源生态的竞争与合作:DeepSeek开源优化方案倒逼硬件厂商创新,英伟达通过Dynamo开源与CUDA生态扩展,巩固其"软硬一体"护城河。
能效与可持续性:液冷技术、CPO交换机等创新将推动边缘数据中心向绿色化演进。
结语
英伟达GTC 2025释放了一个明确信号:AI的下一阶段是"物理化"与"边缘化"的深度融合。无论是桌面级算力设备、开源框架,还是机器人生态,英伟达正通过全栈技术布局,推动边缘计算从"辅助角色"迈向"核心生产力"。
对行业而言,DeepSeek等企业的算法创新与英伟达的硬件升级,共同构成了边缘AI落地的"双引擎"。未来,谁能更高效地整合算法、算力与网络,谁就能在边缘计算的万亿市场中占据先机。
感谢阅读,欢迎您转发文章扩散到朋友圈。谢谢!
<>
<>
高通收购Edge Impulse:边缘AI与TinyML的"强强联合",如何改写行业格局?
<>
<>
3.07亿美元豪赌边缘 AI!恩智浦收购 Kinara,开启智能边缘的'核爆时代'
<>