新视频:什么在运行 ChatGPT ?

这篇文章最初发表在 NVIDIA 技术博客上。

几年前,NVIDIA 创始人兼首席执行官黄仁勋亲自交付了世界上第一台NVIDIA DGX AI 系统到 OpenAI 。至今,OpenAI 的 ChatGPT 已经在全球范围内大受欢迎,这凸显了人工智能(AI)以及如何将其应用于各行各业,无论是小型企业还是大型企业。

现在,你有没有停下来思考一下托管和支持 ChatGPT 所需的技术和基础设施?

在这段视频中,微软 Azure 首席技术官 Mark Russinovich 解释了他们专门构建的人工智能超级计算机基础设施背后的技术堆栈。它是由 NVIDIA、Microsoft Azure 和 OpenAI 合作开发的,用于托管 ChatGPT 和其他大型语言模型(LLMs)以任何规模。

主要收获

  • NVIDIA H100 Tensor Core GPUs 的数据并行方法使推理性能提高了 30 倍,模型训练性能提高了 4 倍。
  • 满足LLM 的更高处理要求,虚拟机可以使用NVIDIA Quantum-2 InfiniBand联网进行扩展。
  • 大规模训练不可避免地会出现服务器故障和网络故障。微软的 Project Forge 引入了透明的检查点,以快速恢复工作并在全球范围内保持高水平的利用率
  • 处理亿级参数模型时,可以参考大型语言模型、提示工程和 P-Tuning 的介绍
  • Wayve 等行业先驱正在利用人工智能超级计算机基础设施来实现计算密集型工作负载。
  • 即将提供的支持机密计算可以在 Azure 上使用 NVIDIA H100 GPU,有助于保护敏感数据,保护正在使用的有价值的人工智能模型,实现人工智能的安全多方协作用例。

视频 1. 什么在运行 ChatGPT ?微软人工智能超级计算机内幕|马克·鲁西诺维奇

总结

当训练具有数千亿参数的人工智能模型时,高效的数据中心基础设施是关键:从提高吞吐量和最大限度地减少服务器故障,到利用多 GPU 集群进行计算密集型工作负载。

有关优化数据中心基础架构以可靠地大规模部署大型模型的更多信息,请参阅以下资源:

阅读原文

相关推荐
hszmoran21 小时前
电脑关机重启时显示rundll32 内存不能为read解决方法
电脑·nvidia·驱动
赞奇科技Xsuperzone3 天前
DGX Spark 实战解析:模型选择与效率优化全指南
大数据·人工智能·gpt·spark·nvidia
视***间4 天前
方寸之间,算力之巅 视程空间—EDG SC6N0-S T5X 超算计算机以 Jetson AGX Thor 重构个人计算边界
边缘计算·nvidia·算力·ai算力·视程空间
万俟淋曦5 天前
NVIDIA DriveOS 推动新一代智能汽车实现突破
人工智能·ai·汽车·nvidia·智能汽车·driveos·driveworks
安全二次方security²6 天前
CUDA C++编程指南(1)——简介
nvidia·cuda·c/c++·device·cuda编程·architecture·compute unified
算家计算11 天前
英伟达亮出最强AI芯片!性能暴增3倍,算力竞赛迎来新节点
人工智能·nvidia·芯片
扫地的小何尚14 天前
AI创新的火花:NVIDIA DGX Spark开箱与深度解析
大数据·人工智能·spark·llm·gpu·nvidia·dgx
扫地的小何尚15 天前
一小时内使用NVIDIA Nemotron创建你自己的Bash计算机使用智能体
开发语言·人工智能·chrome·bash·gpu·nvidia
安全二次方security²16 天前
CUDA-GDB(11)——调试示例演练
gdb·nvidia·cuda·调试·cuda-gdb·autostep·mpi cuda
BothSavage23 天前
Ubuntu-8卡H20服务器升级nvidia驱动+cuda版本
linux·服务器·ubuntu·gpu·nvidia·cuda·nvcc