大家好,今天继续讲述关于人工智能学习的基础篇。
(1)张量处理器
张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。
2025年6月28日消息,OpenAI已开始租用谷歌的张量处理单元(TPU)。
张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。
与图形处理器(GPU)相比,TPU采用低精度(8位)计算,以降低每步操作使用的晶体管数量。降低精度对于深度学习的准确度影响很小,但却可以大幅降低功耗、加快运算速度。同时,TPU使用了脉动阵列的设计,用来优化矩阵乘法与卷积运算,减少I/O操作。此外,TPU还采用了更大的片上内存,以此减少对DRAM的访问,从而更大程度地提升性能。
Google在2016年的Google I/O年会上首次公布了TPU。不过在此之前TPU已在Google内部的一些项目中使用了一年多,如Google街景服务、RankBrain以及其旗下DeepMind公司的围棋软件AlphaGo等都用到了TPU。而在2017年的Google I/O年会上,Google又公布了第二代TPU,并将其部署在Google云平台之上。第二代TPU的浮点运算能力高达每秒180万亿次。

专用集成电路(英语:Application-specific integrated circuit,缩写:ASIC),是指依产品需求不同而客制化的特殊规格集成电路;相反地,非客制化的是应用特定标准产品(Application-specific standard product)集成电路。
专用集成电路是由特定使用者要求和特定电子系统的需要而设计、制造。由于单个专用集成电路芯片的生产成本很高,如果出货量较小,则采用专用集成电路在经济上不太实惠。这种情况可以使用可编程逻辑器件(如现场可编程逻辑门阵列)来作为目标硬件实现集成电路设计。此外,可编程逻辑器件具有用户可编程特性,因此适合于大规模芯片量产之前的原型机,来进行调试等工作。但是可编程逻辑器件在面积、速度方面的优化程度不如全定制的集成电路。
一般专用集成电路的ROM和RAM都在出厂前经过掩膜(MASK),如常用的红外线遥控器发射芯片就是这种芯片。
专用集成电路的特点是面向特定用户的需求,品种多、批量少,要求设计和生产周期短,它作为集成电路技术与特定用户的整机或系统技术紧密结合的产物,与通用集成电路相比具有体积更小、重量更轻、功耗更低、可靠性提高、性能提高、保密性增强、成本降低等优点。

2025年6月28日消息,近期,有知情人士透露,OpenAI 开始租用谷歌的张量处理单元(TPU),用于支持其热门产品 ChatGPT 等项目的运行。
2025年9月4日消息,谷歌近期正在与一些主营英伟达 AI GPU 租赁服务的小型云计算供应商进行洽谈,希望这些企业在其数据中心内也引入谷歌的 TPU 芯片。据悉,谷歌已经至少与其中一家公司(Fluidstack)达成初步协议。若该计划顺利推进,这将成为谷歌 AI 发展战略的重要转折点。谷歌将 TPU 部署至外部数据中心,将使谷歌的 Tensor 算力不再受限于自身基础设施的扩展能力,从而获得更广阔的发展空间。
(2)张量处理器芯片
张量处理器芯片(TPU)是面向人工智能计算场景开发的专用芯片,2024年7月由北京大学彭练矛-张志勇团队率先实现基于碳纳米管技术的突破性成果。该芯片集成3000个碳纳米管场效应晶体管,结合脉动阵列架构实现并行化处理,在180纳米技术节点展现出3倍于硅基晶体管的性能优势。实验数据显示其构建的五层卷积神经网络在295μW超低功耗下实现88%的MNIST图像识别准确率,能量效率达到1TOPS/W 。该研发成果标志着碳基半导体材料首次应用于张量处理器领域,为高算力、高能效芯片提供了新路径。
基于碳纳米管场效应晶体管的创新器件工艺,突破传统硅基芯片物理极限。碳纳米管材料具备超薄结构(厚度3000cm²/(V·s))特性,在180纳米技术节点相较硅基CMOS晶体管获得3倍性能提升。团队通过掩模版级工艺优化实现均匀阵列排布,克服碳管定向排列与密度控制难题。
采用两级优化的并行计算架构:底层为2位整数乘积累加器单元,上层搭建脉动阵列实现数据流驱动。该架构支持卷积核滑动运算中的权重复用与中间结果缓存。通过行波式数据传递机制,在单个时钟周期内完成乘加运算与相邻单元数据交互,使计算密度提升至传统GPU的3倍。
今天就讲这些,下篇文章见。