为什么深度学习用GPU而不是CPU

首先,我们深度理解一下中央处理器(Central Processing Unit,CPU)的核心。 CPU的每个核心都拥有高时钟频率的运行能力,和高达数MB的三级缓存(L3Cache)。 它们非常适合执行各种指令,具有分支预测器、深层流水线和其他使CPU能够运行各种程序的功能。 然而,这种明显的优势也是它的致命弱点:通用核心的制造成本非常高。 它们需要大量的芯片面积、复杂的支持结构(内存接口、内核之间的缓存逻辑、高速互连等等),而且它们在任何单个任务上的性能都相对较差。 现代笔记本电脑最多有4核,即使是高端服务器也很少超过64核,因为它们的性价比不高。

相比于CPU,GPU由100∼1000个小的处理单元组成(NVIDIA、ATI、ARM和其他芯片供应商之间的细节稍有不同),通常被分成更大的组(NVIDIA称之为warps)。 虽然每个GPU核心都相对较弱,有时甚至以低于1GHz的时钟频率运行,但庞大的核心数量使GPU比CPU快几个数量级。 例如,NVIDIA最近一代的Ampere GPU架构为每个芯片提供了高达312 TFlops的浮点性能,而CPU的浮点性能到目前为止还没有超过1 TFlops。 之所以有如此大的差距,原因其实很简单:首先,功耗往往会随时钟频率呈二次方增长。 对于一个CPU核心,假设它的运行速度比GPU快4倍,但可以使用16个GPU核代替,那么GPU的综合性能就是CPU的16×1/4=4倍。 其次,GPU内核要简单得多,这使得它们更节能。 此外,深度学习中的许多操作需要相对较高的内存带宽,而GPU拥有10倍于CPU的带宽。

相关推荐
qyresearch_5 分钟前
商用飞机电池市场:现状、挑战与未来展望
大数据·人工智能
正在走向自律5 分钟前
AI新手入门解锁元生代MaaS平台:API工作流调用全攻略
人工智能·自然语言处理·知识库·rag·maas·openai 兼容接口
EasyDSS16 分钟前
视频监控汇聚平台EasyCVR工业与安全监控:防爆摄像机的安全应用与注意事项
网络·人工智能·音视频
油泼辣子多加17 分钟前
【大模型】Bert变种
人工智能·深度学习·bert
孙胜完不了23 分钟前
Day39
python·深度学习·计算机视觉
仙人掌_lz26 分钟前
小型语言模型:为何“小”才是“大”?
人工智能·ai·语言模型·自然语言处理·llm
柠石榴33 分钟前
5.28 孔老师 nlp讲座
人工智能·自然语言处理
bestcxx37 分钟前
从 “金屋藏娇” 到 自然语言处理(NLP)
人工智能·自然语言处理
Chatopera 研发团队41 分钟前
llm-get-started: 大语言模型快速开始
人工智能·语言模型·自然语言处理
zhutoutoutousan43 分钟前
基于React和TypeScript的金融市场模拟器开发与模式分析
前端·人工智能·react.js·金融·typescript·机器人·自动化