LLama 3 跨各种 GPU 类型的基准测试

2024 年 4 月 18 日,AI 社区对 Llama 3 70B 的发布表示欢迎,这是一款最先进的大型语言模型 (LLM)。该型号是 Llama 系列的下一代产品,支持广泛的用例。该模型 istelf 在广泛的行业平台上表现良好,并提供了新功能,包括改进的推理。

在之前的博客文章中,我们研究了使用推理引擎对 Llama 3 的量化和非量化版本执行推理的知名应用程序。我们在第 1 部分介绍了量化版本,在第 2 部分介绍了非量化版本。研究的重点是研究什么是最简单、性能最好的引擎,可以将 Llama 3 作为 API 端点。这篇文章着眼于此项目的下一次迭代,并着眼于不同 GPU 类型的性能。

经过测试的 GPU

在深入研究结果之前,让我们简要介绍一下我们测试过的 GPU:

  • NVIDIA A6000:以其高内存带宽和计算能力而闻名,广泛用于专业图形和 AI 工作负载。
  • NVIDIA L40:专为企业 AI 和数据分析而设计,提供均衡的性能。
  • NVIDIA A100 PCIe:用于 AI 和高性能计算的多功能 GPU,采用 PCIe 外形尺寸。
  • NVIDIA A100 SXM4:A100 的另一种变体,针对 SXM4 外形尺寸的最大性能进行了优化。
  • NVIDIA H100 PCIe:该系列的最新产品,拥有更高的性能和效率,专为 AI 应用程序量身定制。

基准测试方法论

我们可以使用许多不同的引擎和技术来判断各种 GPU 的性能。我们决定利用 Hugging Face Text Generation Inference (TGI) 引擎作为为 Llama 3 提供服务的主要方式。这样做有一个主要原因。它是我们见过的唯一一个提供基准测试机制的推理引擎。

TGI 提供的基准测试允许查看批量大小、预填充和解码步骤。这是查看每秒平均、最小和最大令牌以及 p50、p90 和 p99 结果的绝佳方式。如果您想了解更多关于如何通过 TGI 进行基准测试的信息,请联系我们,我们很乐意为您提供帮助。

结果

RTX A6000

图:4xA6000 上的基准测试

L40型

Figure: Benchmark on 4xL40

A100 PCIe

Figure: Benchmark on 2xA100

A100 SXM4

Figure: Benchmark on 2xA100

H100 PCIe

图:2xH100 上的基准测试

长期以来,A100 都被认为是在大模型生产系统中的不二之选。

结论

Hugging Face TGI 提供了一种一致的机制,可以在多种 GPU 类型上进行基准测试。根据这些结果的性能,我们还可以计算出最经济高效的 GPU 来运行 Llama 3 的推理端点。了解这些细微差别有助于在部署 Llama 3 70B 时做出明智的决策,确保您获得最佳性能和投资价值。

相关推荐
面汤放盐11 分钟前
AI Agent 是什么,如何理解它,未来挑战和思考
人工智能
深小乐27 分钟前
AI 周刊【2026.03.23-03.29】:Sora 落幕、Claude 上桌、中国 AI 的分歧时刻
人工智能
火山引擎开发者社区1 小时前
群「虾」荟萃🦐|ArkClaw 社群挑战赛活动火热进行中
人工智能
春日见2 小时前
自驾算法的日常工作?如何提升模型性能?
linux·人工智能·机器学习·计算机视觉·自动驾驶
freewlt2 小时前
深入理解 OpenClaw:打造安全可控的本地 AI 助理架构
人工智能·安全·架构·openclaw
*JOKER3 小时前
Flow Matching&生成算法
人工智能·深度学习·机器学习·大模型·生成模型·flow matching
databook3 小时前
别让AI代码,变成明天的技术债
人工智能·程序员·ai编程
人工智能AI技术3 小时前
计算机专业面试必看!90%学生都踩过的算法面雷区
人工智能·面试
千寻girling3 小时前
面试官 : “ 说一下 Python 中的常用的 字符串和数组 的 方法有哪些 ? ”
人工智能·后端·python