自动驾驶SoC:自动驾驶竞赛的制高点

汽车半导体的概念,什么是汽车芯片

汽车半导体概念宽广,在汽车电动化、智能化、网联化、共享化等各领域发挥重要作用,其按照功能分为汽车芯片、功率器件、传感器等。

其中芯片又称为集成电路,集成度很高;人们常说的汽车芯片是指汽车里的计算芯片,按集成规模可分为MCU芯片和SoC芯片。而功率器件集成度较低,属于分立器件,主要包括电动车逆变器和变换器中的IGBT、MOSFET等。传感器则包括智能车上的雷达、摄像头等。

汽车SoC芯片 Mobileye(英特尔)、英伟达、高通、华为、地平线、黑芝麻等

汽车MCU芯片 恩智浦、英飞凌、瑞萨、意法半导体、德州仪器、博世、安森美、微芯等

汽车功率器件 英飞凌、安森美、意法半导体、CREE、比亚迪、中车时代电气等

汽车芯片,正从MCU芯片,进化至SoC芯片

MCU是芯片级芯片,又称单片机,一般只包含CPU这一个处理器单元;MCU=CPU+存储+接口单元;而SoC是系统级芯片,一般包含多个处理器单元;如SoC可为CPU+GPU+DSP+NPU+存储+接口单元。

随着全球汽车消费升级,汽车电子化趋势处于快速增长,全球汽车搭载的电子控制单元ECU数量持续增加,一般都是MCU芯片。汽车电子化需求及汽车MCU行业格局,导致汽车MCU芯片短中期出现了短缺。

汽车智能化趋势,一是智能座舱,二是自动驾驶,对汽车的智能架构和算法算力,带来了数量级的提升需要,推动汽车芯片快速转向搭载算力更强的SoC芯片。

随着汽车电子化加速渗透,汽车电控需求快速上升,因此汽车MCU芯片仍处于供不应求格局,在疫情影响大背景下,这一问题显得更为突出。

由于全球汽车MCU芯片,处于恩智浦、英飞凌、瑞萨等为代表的群雄割据竞争格局。而芯片与车厂的深度绑定,导致个性化定制和外部代工,加剧了供应链的扩产难度。比如:瑞萨与丰田、英飞凌与德系等。

目前处于成熟制程的MCU芯片短缺,由多种原因造成:

①新冠疫情+日本地震+德州暴风雪+中国台湾缺水。

②全球70%以上的汽车MCU生产来自于台积电,而台积电的汽车芯片代工收入2020年占比仅为3%, MCU处于20~45nm的成熟制程(高端自动驾驶SoC芯片需要更先进的7nm制成),代工利润低,没有扩产动力,导致MCU产能吃紧。

③上游设备商亦因利润较低而较少生产成熟制成的生产设备,生产设备难补充。④疫情期间消费电子销售爆发导致的产能挤压。

汽车智能化,智能座舱带动SoC芯片先行

汽车中要用到SoC芯片的主要为智能座舱和自动驾驶两个方面。

与自动驾驶芯片相比,智能座舱芯片相对容易打造。即便芯片完全失灵,也不会威胁司机和乘客的生命安全,过车规难度较低。在智能汽车芯片"战争"中,智能座舱芯片是"前哨战",自动驾驶芯片才是"战事中的制高点"。

未来智能座舱所代表的"车载信息娱乐系统+流媒体后视镜+抬头显示系统+全液晶仪表+车联网系统+车内乘员监控系统"等融合体验,都将依赖于智能座舱SoC芯片。

智能座舱芯片的市场主要竞争者有消费电子领域的高通、英特尔、联发科等,主要面向高端市场;此外还有NXP 、德州仪器、瑞萨电子等传统汽车芯片厂商,其产品主要面向中低端市场。

目前国内大部分车型搭载座舱域控制器芯片的以德州仪器的 Jacinto6 和 NXP的 i.mx6 等上一代产品。国内新入局的竞争者主要有华为(与比亚迪合作开发麒麟芯片上车)、地平线(长安UNI-T、理想ONE的智能座舱基于征程2芯片)。

自动驾驶,推动"架构变革+算力提升" ,带来SoC芯片爆发增长

传统汽车分布式E/E架构下ECU(Electronic Control Unit)控制单一功能,用MCU芯片即可满足要求。随着汽车电子化自动化程度提升,车载传感器的数量持续增加,传统的分布式架构出现瓶颈:

1)ECU算法只能处理指定传感器的数据,算力不能共享;

2)分布式架构新增传感器和ECU的同时,需要在车体内部署大量通信总线,增加装配难度和车身重量;

3)车内ECU来自于不同的供应商,开发人员无法实现统一化编程和软件升级,无法实现整车OTA。

汽车域集中架构下的域控制器(DCU)和中央集中式架构下的中央计算机需要SoC芯片。随着智能网联汽车时代的到来,以特斯拉为代表的汽车电子电气架构改革先锋率先采用中央集中式架构,即用一个电脑控制整车,并可以很好的实现整车OTA软件升级。全球范围内各大主机厂均已认识到汽车控制集中化的大趋势,虽不同主机厂对控制域的划分方案不同,但架构向域控制/集中式控制的方向相同。域控制器集成前期的诸多ECU的运算处理器功能,因此相比ECU其对芯片算力的需求大幅提升,计算芯片相应的需要用到算力更高的SoC芯片。

自动驾驶SoC:自动驾驶竞赛的制高点

处理器芯片是MCU/SOC芯片的计算核心:分为CPU、GPU、DSP、ASIC、FPGA等多种。一般MCU芯片中只有CPU,SoC芯片则中除CPU之外还会有其他种类的处理器芯片。

CPU、GPU、DSP都属于通用处理器芯片:

①CPU是中央处理器,擅长处理逻辑控制。对CPU进行优化调整,发展出

②善于处理图像信号的GPU和

③善于处理数字信号的DSP。

ASIC是专用处理器芯片,FPGA是"半专用"处理器芯片。EyeQ(Mobileye)、BPU(地平线) 、NPU(寒武纪等)等专门用来做AI算法的芯片(又称AI芯片)则属于专用芯片(ASIC)的范畴。FPGA是指的现场可编程门阵列,是"半专用"芯片,这种特殊的处理器具备硬件可编程的能力。

自动驾驶SoC芯片:"CPU+XPU"架构,XPU有多种选择

自动驾驶芯片是指可实现高级别自动驾驶的SoC芯片,通常具有"CPU+XPU"的多核架构。L3+的车端中央计算平台需要达到500+TOPS的 算力,只具备CPU处理器的芯片不能满足需求。自动驾驶SoC芯片上通常需要集成除CPU之外的一个或多个XPU来做AI运算。用来做AI运算的XPU可选择GPU/FPGA/ASIC等。

GPU、FPGA、ASIC在自动驾驶AI运算领域各有所长:CPU通常为SoC芯片上的控制中心,其优点在于调度、管理、协调能力强,但CPU计算能力相对有限。而对于AI计算而言,人们通常用GPU/FPGA/ASIC来做加强:

1)GPU适合数据密集型应用进行计算和处理,尤其擅长处理CNN/DNN等和顺序无关的图形类机器学习算法。

2)FPGA则对于RNN/LSTM/强化学习等有关顺序类的机器学习算法具备明显优势。

3)ASIC是面向特定用户的算法需求设计的专用芯片,因"量身定制"而具有体积更小、重量更轻、功耗更低、性能提高、保密性增强、成本降低等优点。

目前市场上主流的自动驾驶SoC芯片处理器架构方案(或称技术路线)有以下三种:

①英伟达、特斯拉为代表的科技公司,所用售卖的自动驾驶SoC芯片采用CPU+GPU+ASIC方案。

②Mobileye、地平线等新兴科技公司,致力于研发售卖自动驾驶专用AI芯片,采用CPU+ASIC方案。

③Waymo、百度为代表的互联网公司采用CPU+FPGA(+GPU)方案做自动驾驶算法研发。

方案①:英伟达和特斯拉的 "CPU+GPU+ASIC"方案

英伟达Xavier以GPU为计算核心:主要有 4 个模块: CPU,GPU,Deep Learning Accelerator(DLA)和 Programmable Vision Accelerator(PVA)。占据最大面积的是 GPU,接下来是 CPU,最后辅以两个ASIC:一个是用于 inference 的 DLA,还有一个是加速传统 CV 的 PVA。

特斯拉FSD以NPU(一种ASIC)为计算核心: 有三个主要模块: CPU,GPU 和 Neural Processing Unit(NPU)。其中最重要也是面积最大的就是特斯拉自研的 NPU(属于ASIC),主要用来运行深度神经网络。GPU 主要是用来运行 deep neural network 的 post processing 部分。

方案②:Mobieye EyeQ5的"CPU+ASIC"架构

EyeQ5 主要有 4 个模块:CPU, Computer Vision Processors(CVP), Deep Learning Accelerator(DLA)和 Multithreaded Accelerator(MA)。其中CVP 是针对很多传统计算机视觉算法设计的 ASIC。从公司成立开始 Mobileye 就是以自己的 CV 算法而闻名,同时因为用专有的 ASIC 来运行这些算法而达到较低功耗而闻名。

地平线自主设计研发了AI专用的ASIC芯片:Brain Processing Unit(BPU),可提供设备端上软硬结合的嵌入式人工智能解决方案。基于BPU的征程2芯片可提供超过 4TOPS 的等效算力,典型功耗仅 2 瓦,能够高效灵活地实现多类 AI 任务处理,对多类目标进行实时检测和精准识别。征程2充分体现了BPU架构强大的灵活性,全方位赋能汽车智能化。

谷歌 Waymo采用"CPU+FPGA"方案:Waymo的计算平台采用英特尔Xeon12核以上CPU,搭配Altera的Arria系列FPGA,并采用英飞凌的Aurix系列MCU作为CAN/FlexRay网络的通信接口 。

其中Arria系列FPGA在未来自动驾驶算法固化后有可能被专用ASIC替代。

"CPU+ASIC"方案将成为未来商业化主流

我们认为在自动驾驶算法尚未成熟固定之前,CPU+GPU+ASIC的架构仍然会是主流。在自动驾驶算法完全成熟之后,定制批量生产的低功耗低成本的专用自动驾驶AI芯片(ASIC)将逐渐取代高功耗的GPU,CPU+ASIC架构将成为主流。

GPU本为支撑大型电脑游戏的图像处理而设计,适合用于机器学习神经网络训练。但GPU缺点是功耗大、计算能耗比低。计算能耗比方面,ASIC> FPGA >GPU > CPU。专用AI芯片(ASIC)针对AI算法采取特殊设计,具有体积更小、功耗更低、可靠性更高、性能更高的优点。缺点是一次研发费高、周期长。

FPGA适合做算法的开发测试,不具备量产成本优势。FPGA开发的人工智能处理器具有高性能、低能耗、可硬件编程的特点,但FPGA在大规模量产方面不具备成本优势。故前采用CPU+FPGA方案的主要为百度、Waymo等专注于自动驾驶算法软件开发的公司。

参考文献:

中金公司分析报告

相关推荐
古希腊掌管学习的神20 分钟前
[机器学习]XGBoost(3)——确定树的结构
人工智能·机器学习
ZHOU_WUYI1 小时前
4.metagpt中的软件公司智能体 (ProjectManager 角色)
人工智能·metagpt
靴子学长1 小时前
基于字节大模型的论文翻译(含免费源码)
人工智能·深度学习·nlp
AI_NEW_COME2 小时前
知识库管理系统可扩展性深度测评
人工智能
海棠AI实验室3 小时前
AI的进阶之路:从机器学习到深度学习的演变(一)
人工智能·深度学习·机器学习
hunteritself3 小时前
AI Weekly『12月16-22日』:OpenAI公布o3,谷歌发布首个推理模型,GitHub Copilot免费版上线!
人工智能·gpt·chatgpt·github·openai·copilot
IT古董4 小时前
【机器学习】机器学习的基本分类-强化学习-策略梯度(Policy Gradient,PG)
人工智能·机器学习·分类
centurysee4 小时前
【最佳实践】Anthropic:Agentic系统实践案例
人工智能
mahuifa4 小时前
混合开发环境---使用编程AI辅助开发Qt
人工智能·vscode·qt·qtcreator·编程ai
四口鲸鱼爱吃盐4 小时前
Pytorch | 从零构建GoogleNet对CIFAR10进行分类
人工智能·pytorch·分类