近日,据英国《金融时报》报道,OpenAI拟与美国半导体巨头博通启动自研AI芯片量产。知情人士透露,OpenAI与博通合作开发的自研AI芯片将于明年开始量产。《金融时报》分析称,OpenAI与博通的合作标志着行业开始寻求定制化的英伟达芯片的替代方案。

博通首席执行官陈福阳透露,新客户承诺的巨额订单直接推动了公司股价飙升近11%。
这款由双方共同设计的芯片不会对外销售,而是专门用于OpenAI内部系统,旨在提升计算性能并降低运营成本。
算力需求爆发,成本压力加剧
当前,AI模型训练和推理对算力的需求正在爆炸式增长。海外每天AI agent产生的token处理需求,需要相当于260万亿TeraFLOPS的算力支持。
以英伟达H100 GPU为例,其单卡算力约为2000 TeraFLOPS,理论上每天需要约130万张卡才能满足需求。
目前OpenAI主要依靠英伟达的GPU来训练和运行其人工智能模型。但由于供应链紧张和成本不断攀升,公司正积极寻求替代方案以实现供应链多元化。
OpenAI首席执行官山姆·阿尔特曼一直强调对更多计算能力的需求。上个月,他表示鉴于"来自GPT-5的需求增加",公司正在优先考虑计算资源,并计划在"未来5个月内"将计算设备规模扩大一倍。
定制化AI芯片就像是为特定任务量身定做的专属工具。相比于传统的GPU,这种芯片可以针对特定任务进行优化设计,从而提高计算效率和性能。
通过与博通合作,OpenAI不仅能更好地控制芯片的设计和制造过程,还能降低成本并提高供应链的稳定性。这样一来,OpenAI就能更灵活、更高效地应对未来的算力需求。

全球科技巨头的芯片布局
OpenAI此举,与谷歌、亚马逊和Meta等科技巨头的策略类似,这些企业均已设计自己的专用芯片来运行AI。
谷歌自研的数据中心服务器AI芯片------TPU已经在市场上取得了显著的性能提升。亚马逊、Meta等公司也纷纷加入这一行列。

中国科技企业也在加大算力投入。2025年第二季度,百度、阿里巴巴和腾讯共计投入616亿元人民币用于资本支出,同比增长168%,主要用于AI基础设施和本土芯片采购。
据悉,博通为OpenAI设计的XPU采用chiplet(小芯片)架构,通过3D堆叠技术将计算单元、内存和互连接口分层集成。
这种设计允许根据大模型训练需求动态调整计算精度------在反向传播阶段使用FP8精度节省功耗,在前向推理时切换至FP16保证准确性。
更革命性的创新在于光互连技术的应用。博通最新CoWoS封装技术允许芯片间通过硅光链路通信,数据传输带宽是传统铜互联的5倍,延迟却降低至十分之一。
这对于需要千万卡集群协同训练的千亿参数模型至关重要。定制芯片可将AI训练成本拉低,使得中小型企业也能负担千亿参数模型的训练。
随着GPT-5等下一代模型对算力的需求呈现指数级增长,定制芯片可能成为未来AI竞争的关键差异化因素。
OpenAI与博通的百亿级合作,不仅是一次简单的供应链调整。当模型架构的创新逐渐进入平台期,算力正成为决定AI发展速度和规模的关键因素。从依赖通用GPU到定制专属芯片,头部企业正在通过硬件创新来突破性能与成本的双重约束。
随着大模型参数量和多模态数据处理的指数级增长,传统算力供给模式已难以满足需求。OpenAI的造芯计划,与其说是为了替代英伟达,不如说是为了在算力自主权上掌握更多话语权。
未来AI行业的竞争,也是算力体系架构的竞争。自定义芯片、异构计算、光互联技术等创新,正在重塑算力基础设施的形态。没有充足、高效、经济的算力支撑,再先进的算法也无法发挥价值。