前面有提到,自动驾驶等级每增加一级,所需要的芯片算力就会呈现十数倍的上升,L2级自动驾驶的算力需求仅要求2-2.5TOPS,但是L3级自动驾驶算力需求就需要20-30TOPS,到L4级需要200TOPS以上,L5级别算力需求则超过2000TOPS。
上一章节特斯拉的算力是72TOPS,接下来介绍的几款平台都是在200TOPS以下的低算力平台,主要是L2级别以上的自动驾驶平台,比如Mobileye,其主要强项在于它基于视觉的ADAS应用,低算力平台芯片有Mobileye、瑞萨、TI,地平线 四家芯片平台本期内容会一一介绍。
Mobileye方案介绍
Mobileye成立于1999年,是以色列提供基于视觉系统分析和数据处理研发高级驾驶辅助系统和自动驾驶解决方案的全球先行者,为全球27家OEM厂和Tier1厂商提供"芯片+算法"软硬一体化的ADAS视觉解决方案。
EyeQ系列芯片截至2019年底出货5400万,为全球超过5000万辆汽车的行车安全保驾护航,目前全球ADAS市场占有率大约为70%。创办之初公司致力于用单目视觉,提供包括行人检测、车道保持和自适应巡航等辅助驾驶技术,1999年到2001年,Mobileye原型产品每年迭代一次,2001年Mobileye将自研的算法固化到芯片上并集成到汽车当中,从此开启了EyeQ芯片的研发。
2004年4月,EyeQ1开始生产,随后公司收获多轮融资,将商业模式转向汽车安全,陆续与大陆、意法半导体、麦格纳、电装、德尔福等全球顶级零部件供应商签署合作协议。2007年,宝马、通用和沃尔沃成为首批配装Mobileye芯片的车企,Mobileye产品正式商用。2008年,Mobileye对外发布EyeQ 2,公司进入稳定发展期。2013年,Mobileye累计卖出产品突破100万台,随后出货量呈现爆发式增长。2017年3月,Mobileye被芯片巨头英特尔以 153 亿美元的价格收购。
2014年到2019年,公司营收复合增速达到44%,2019年收入8.79亿美元,净利润27.9%,其中EyeQ系列芯片2019年出货量达到1740万颗。EyeQ1至EyeQ4等芯片型号已经量产,EyeQ5则预计于明年投放市场。EyeQ4多用于对半自动辅助驾驶技术的支持,最高支持到L3级别,而EyeQ5主要定位于Level 4/5无人驾驶阶段的应用。
2019 年底,Mobileye EyeQ 芯片全球累计出货超过 5400 万片。
2020 年 9 月,Mobileye 透露,EyeQ 芯片全球出货量超过 6000 万片。
这 6000 万片是 EyeQ2、EyeQ3 和 EyeQ4 之和,其中 2020 年新增的部分主要是 EyeQ4。
目前Mobileye一直采用传感器+芯片+算法绑定的一体式解决方案,这种封闭模式也导致客户开发灵活度下降,短期有利于提升市场占有率,受到转型较晚或者AI投入少的OEM厂商欢迎,但长期将导致定制差异化产品的能力欠缺,因此需要快速迭代升级产品的造车新势力或者对转型速度要求较快的OEM厂商很难接受Mobileye的"黑盒"方式。
例如中国造车新势力小鹏汽车曾短暂地用Mobileye的芯片做过测试后决定在P7上改用英伟达的Xavier,主要因为小鹏希望"把芯片和算法剥离开,采用可编程的芯片,在芯片上进行算法研发和定制化,跟场景结合",因此选择了更开放的英伟达。
EyeQ4配置了4个CPU内核和6个矢量微码处理器(VMP),每个CPU内核又拥有四个硬件线程。EyeQ4芯片引入了新颖的加速器类别:两个多线程处理集群(MPC)内核,两个可编程宏阵列(PMA)内核。结构上,EyeQ4使用 28nm的FD-SOI。功能上,相比EyeQ3,EyeQ4新增REM路网收集管理、驾驶决策、任意角度车辆识别、可行驶区域等功能。
即将投放市场的EyeQ5将装备8枚多线程CPU内核,同时还会搭载18枚Mobileye的下一代视觉处理器。
EyeQ5具有更为复杂的功能,将采用7nm制程工艺。EyeQ5最多支持20个外部传感器(摄像头、雷达或激光雷达),"传感器融合"是EyeQ5推出的主要目的。EyeQ5运算性能达到了12Tera/每秒,能耗不到5W,芯片节能效率是对标产品Drive Xavier的2.4倍。为了能够运行L4/L5级别自动驾驶,英特尔自动驾驶系统将采用摄像头为先的方法设计,搭载两块EyeQ5系统芯片、一个英特尔凌动芯片以及Mobileye软件。EyeQ5有望实行"开放"战略,Tier1和主机厂等合作伙伴都可以使用"开放式架构"来写入自己的代码,包括传感器融合和驾驶决策等。
EyeQ5 Mobileye 的 SuperVision 即将量产
极氪 001 前面几天的发布会,该车型的自动驾驶使用的就是 自动驾驶会采用 Mobileye 的 SuperVision 系统。
SuperVision 是 Mobileye 打造的 360° 纯视觉智能驾驶系统。所谓纯视觉,简单理解就是像特斯拉 FSD 一样,用摄像头来实现 L2 及以上级别辅助驾驶能力的智能驾驶系统。
极氪 001 将搭载的自动驾驶辅助系统 Copilot,其集成了 2 颗 Mobileye EyeQ5 芯片和视觉感知算法 SuperVision,这是一套 L2+ 级自动驾驶系统。
2 颗 24 Tops/10 W 的 EyeQ5H 将为自动驾驶系统提供计算上的冗余,主系统芯片将包含完整的技术栈,另一颗芯片则提供冗余备份,在主系统失效时发挥作用。
极氪 001 的传感器配置:
-
全车 15 个摄像头;
-
2 颗 EyeQ5H 高算力芯片,EyeQ5 芯片基于台积电的 7nm FinFET 工艺打造,单芯片算力达到了 24 Tops,接近 EyeQ4 的十倍;
-
1 个 250 m LRR 超长距毫米波雷达;
-
12 个超声波雷达。
可以实现的功能,包含:
-
可解放双手的高速自动驾驶:包括自动变道、不同高速公路之间的导航、自动上/下匝道以及城市道路辅助驾驶;
-
自动泊车;
-
标准 ADAS 功能:包括 AEB、ACC 以及 LKA 等;
-
DMS 驾驶员监控系统。
基于这个平台打造的极氪 001 会在 2021 年实现 L2+ 级别的自动驾驶,类似于现在特斯拉的辅助驾驶能力,而到了2023 年基于此逐步实现高速 NoA 或者城市 NoA。
Mobileye 的后续产品路线
EyeQ5 提供的算力水平是最高 24 TOPS,跟其他几家相比,这个算力水平要逊色不少。
EyeQ6 才是 Mobileye 真正发力高性能的高端。
EyeQ6 预计于 2024/2025 年量产,分为高中低三个版本。
Mobileye 在 2016 年开始设计 EyeQ5,选定了 MIPS 的 I6500 做架构。
MIPS 在 I6500 架构之上,推出了特别针对车规的 I6500-F,而后续的 I7200 是针对无线市场的。
因此,Mobileye 在之后的一代芯片上,放弃了 MIPS 架构,而决定采用英特尔的 Atom 内核。
Atom 是英特尔处理器系列的常青树,典型车载平台是 Apollo Lake。
2016 年 6 月,英特尔从 Apolllo Lake 切换到 Goldmont 架构,并先后在特斯拉、宝马、卡迪拉克、红旗、现代、沃尔沃、奇瑞的车机上大量使用。
EyeQ6 要到 2024 年才量产,在各家的竞争中也显得有些落后了。
瑞萨自动驾驶平台方案介绍
瑞萨是全球第二大汽车半导体厂家,全球第一大汽车 MCU 厂家,也是日本除索尼(索尼的主营业务主要是图像传感器)外最大的半导体厂家。
瑞萨在整个座舱芯片(包括液晶仪表+中控导航)和自动驾驶全部都有布局,在不同系列的产品都有分入门级和高阶版本。比如座舱的中间级别的芯片等级及时M级别,大众迈腾与帕萨特用的M3系列芯片,定位为中档座舱。
在高性能车载计算方面,瑞萨目前最顶级的产品是 R-CAR H3,主要用在座舱领域,目前最新款的长城H6的柠檬平台就是使用的这个平台。
从上图的roadmap 可以看到,在ADAS芯片这块,瑞萨推出的芯片比较慢,在2018-2020年都是基于R-Car Gen3 架构推的ADAS芯片。R-Car Gen3基于Arm®Cortex®-A57 / A53内核,该内核使用Arm 64位CPU架构。它提供了处理来自车辆周围多个传感器的大量数据的能力。在开发入门级或高端系统时,在图形和计算机视觉方面存在权衡。
在2018年推出的芯片是R-CAR V3M,这颗芯片是一款主要用于前置摄像头应用的SoC,前置摄像头面临的挑战是如何为计算机视觉提供高性能,同时支持低功耗和高水平的功能安全。由于前置摄像头紧靠挡风玻璃安装,因此必须考虑部件本身产生的热量以及阳光直射造成的温度升高。从而对低功耗的要求尤为严格。R-Car V3M 解决了这一难题,提高了摄像头系统开发的功效。
2019年推出第二个视觉 SoC,即 R-CAR V3H,该产品具有高性能的视觉处理能力和AI处理能力,并具有业界领先的低功耗,该产品的目标应用是L3和L4级别的自动驾驶中的前置摄像头的应用。新一代R-Car V3H产品针对立体前置环视应用做了优化,比R-Car V3M在视觉处理方面的性能提高了5倍。
•四个CPU核:ARM® Cortex®-A53 (1000MHz)
•支持双Lockstep ARM Cortex-R7 (800MHz) CPU
•单通道32bit存储器控制器LPDDR4-3200
•支持图像识别引擎(IMP-X5-V3H)
•专门的CNN硬件加速器,密集的光流处理、密集的立体视觉差的处理和目标分类算法
•双图像信号处理(ISP)
•视频输出(4 lanes × 1 channel LVDS, 1 channel digital)
•视频输入(4 lanes × 2 channels MIPI-CSI2, 2 channels digital)
•支持两路CAN-FD 接口
•一路FlexRay 接口
•支持一路千兆以太网和AVB以太网
•一路PCI Express 接口
这颗芯片的AI算力有4 TOPS,从芯片支持的算力和处理速度来看,非常适合处理一些图像数据的处理,适合做传感器的前融合的数据处理 。
前融合算法就是在原始层把数据融合在一起,融合好的数据就好比是一个超级传感器,而且这个传感器不仅有能力可以看到红外线,还有能力看到摄像头或者RGB,也有能力看到LiDAR的三维数据,就好比是一双超级眼睛,在这双超级眼睛上面,开发自己的感知算法,最后输出一个结果层的物体。
瑞萨的V3H就想做这个前融合的超级传感器,博世的下一代视觉系统内嵌V3H,当时由于天然缺陷,没有办法融合到雷达的数据,所以瑞萨需要开发加强版的V3U芯片。
首先可以看到V3U 基于Renesas R-Car Gen 4架构,提供了从入门级应用到高度自动化驾驶系统的可扩展性。该部件可用于高级驾驶辅助系统(ADAS),允许使用风冷式电子控制单元(ECU),从而在重量和成本方面带来优势。
V3U 可以单芯片同时处理摄影机与雷达等传感器资料,同时以AI进行自动驾驶控制与学习,同时达到汽车安全标准ISO 26262最高的ASIL D要求,确保系统简单安全。
R-Car V3U SoC中的三大优势:
1、高能效、高性能的卷积神经网络(CNN)硬件加速器
随着新一代ADAS和AD系统中使用的传感器数量不断增加,CNN处理性能也需要不断加强。而通过减少由功率消耗产生的热量,可以安装空气冷却式电子控制单元(ECU),从而减少重量并降低成本。
瑞萨电子目前已开发出具有出色深度学习性能的CNN硬件加速器内核,并为R-Car V3U以高密度配置了三个加速器内核,每个CNN加速器内核有2MB的专用存储器,总共有6MB的存储器。这样一来,外部DRAM与CNN加速器之间的数据传输减少了90%以上。
R-Car V3U还提供多种可编程引擎,包括用于雷达处理的DSP,用于传统计算机视觉算法的多线程计算机视觉引擎,用于提升图像质量的图像信号处理以及用于密集光流、立体差异和物体分类等关键算法等的其它硬件加速器。
瑞萨一直汽车电子领域,所以低功耗是它的拿手好戏,这里达到了惊人的 13.8 TOPS/W 的能效比,是顶配 EyeQ6 的 6 倍之多,这个非常恐怖。
R-Car V3U提供高度灵活的DNN深度神经网络和AI机器学习功能。其灵活架构能够运行所有用于汽车障碍物检测与分类任务的最前沿神经网络,提供60.4 TOPS高性能的同时,实现同类最佳的电源效率13.8 TOPS / W。
2、具有自我诊断能力的ASIL D系统安全机制
ISO 26262汽车功能安全标准是一项针对各种功能安全级别的数字目标(指标)。最高功能安全级别的ASIL D要求单点故障度量标准(SPFM)为99%以上,潜在故障度量标准(LFM)为90%以上,因此要求极高的随机硬件故障检测率。此外,由于先进车辆操作系统的不断发展,如新一代ADAS和AD系统,汽车级SoC整体功能基本符合ASIL D标准。
V3U 内部框架如上图:采用 8 核 A76 设计。瑞萨没有像特斯拉一样,堆了 12 个 A72,而是使用了 ARM 的 Corelink CCI-500,即 Cache 一致性互联,这些冗余的芯片架构设计,都是为了满足ASIL D而设计。
瑞萨还开发出安全机制,用于快速检测和响应SoC整体中发生的随机硬件故障。通过组合适合特定目标功能的安全机制,既可以降低功耗,又可以提高故障检测率。将上述机制整合到R-Car V3U中后,SoC的大多数信号处理都可达到ASIL D标准,且能够具备自我诊断能力,降低AD系统中容错设计的复杂性。
3、使软件任务间免受干扰(FFI)的支持机制
软件任务间免受干扰(FFI)是满足功能安全标准的重要因素。当系统中存在具有不同安全级别的软件组件时,防止较低级别任务影响较高级别任务而引发故障就显得尤为重要。此外,当访问硬件模块和共享内存中的控制寄存器时,在SoC中确保FFI也非常重要。因此,瑞萨电子开发出一种FFI支持机制,可以监视通过SoC中互连流过的所有数据,并阻止任务之间的未授权访问。这样在SoC上执行的所有任务均可实现FFI,从而达到ASIL D标准应用,可实现管理对象识别、集成传感器与雷达/LiDAR、规划路线以及通过单个芯片发布控制指令。
V3U 也是一个系列产品,针对不同层级自动驾驶的需求可以提供多个版本,这样做是为了进一步提高出货量,降低成本。
V3U 的产品系列采用的是模块化设计,A76 可以是 2、4、8 核。
GPU 也可以不要,外设也可以轻松增减,灵活性很强。
算力不够,安全来凑:
以技术而言,R-Car V3U并不算先进,至少NVIDIA在2020年5月公布的自动驾驶用次世代芯片Orin系列产品,CNN计算有10~2,000TOPS多种芯片;芯片是由台积电制作,使用12纳米(nm)制程,而台积电已开始供应5~7纳米制程芯片。
R-Car V3U样品开始供货的2020年12月17日,汽车芯片领域12纳米制程算先进技术,但瑞萨预定的R-Car V3U量产时间是2023年4~6月,届时是有点落后了。
在 Mobileye、瑞萨、英伟达、高通四大自动驾驶芯片厂家中,只有瑞萨的主业是汽车半导体,虽然算力稍微落后,但是它对汽车行业的理解最深,对车规重视程度最高,V3U是在几家中唯一能过ASIL-D的厂家,同时有日本车厂加持,瑞萨希望非常之大。
德州仪器TI自动驾驶平台方案介绍
TI芯片是老牌的汽车芯片,同NXP、瑞萨是传统座舱芯片的三大龙头芯片厂家。
TI在处理器上实际上是走得两条产品线,Jacinto和TDA系列。
Jacinto系列将数字处理器的重点放在了汽车等应用上,主要是车载信息娱乐系统。
但是从Jacinto6中,我们看到车载信息娱乐与ADAS功能的结合,这款芯片包括了双ARMCortex-A15内核、两个ARM M4内核、两个C66x浮点DSP、多个3D/2D图形处理器GPU(Imagination),并且还内置了两个EVE加速器。无论是在处理娱乐影音方面,还是车载摄像头的辅助驾驶,可利用汽车内部和外部的摄像头来呈现如物体和行人检测、增强的现实导航和驾驶员身份识别等多种功能。
TDA系列一直是侧重于ADAS功能,可以看到TDA系列兼容性很强,硬件TDA2xV系列是可以做环视、后视等图像处理。
TDA3x系列可支持车道线辅助、自适应巡航控制、交通标志识别、行人与物体检测、前方防碰撞预警和倒车防碰撞预警等多种ADAS算法。这些算法对于前置摄像头、全车环视、融合、雷达与智能后置摄像头等众多ADAS应用的有效使用至关重要。
整体TDA系列的硬件和软件都是可以向下兼容的,只是算力和应用方面的区别,这样移植起来非常方便。
自动驾驶 Jacinto 7 系列架构芯片
Jacinto 7系列架构芯片含两款汽车级芯片:TDA4VM 处理器和 DRA829V 处理器,前者应用于 ADAS,后者应用于网关系统,以及加速数据密集型任务的专用加速器,如计算机视觉和深度学习。此外,这两款处理器包含支持功能安全的微控制器(MCU),使得汽车厂商(OEM)和一级供应商能够用单芯片同时支持 ASIL-D 高安全要求的任务和功能。
很多人在看到Jacinto 7 平台发布的时候,基本上就宣布TI放弃了座舱域控制芯片的道路,往ADAS和网关方面转型了,所以很多车厂基本上就放弃TI的Jacinto 6的选型,因为TI后续基本上不做座舱域控制芯片了。
DRA829V 处理器简单介绍:
传统汽车在网关部分采用的都是 CAN、LIN 等低速接口,对电控单元的升级不同,现在的汽车发展到了域的结构,包括动力域、ADAS 域等,都需要高速的总线接口。
随着汽车实现联网,需要多个计算资源管理更多的数据,需要 PCIe 和 ENET 满足高带宽 ECU 内和 ECU 间通信,而且在达到基本功能的同时要求高等级的功能安全,需要支持网络安全 eHSM。
DRA829V 处理器是业界第一款集成了片上 PCIe 交换机的处理器,同时,它还集成了支持 8 端口千兆支持 TSN 的以太网交换机,进而能够实现更快的高性能计算和整车通信。
从上图可以看出,在 DRA829V 进行了高度集成,将传统的安全 MCU、eHSM、以太网交换机集成到一颗芯片中,降低了系统设计的复杂度。同时,注重了隔离性,功能等级从高到低混合起来性能依然稳定。
DRA829V SoC 通过提供计算资源、在车辆计算平台中高效移动数据以及在整个车辆网络中进行通信,解决了新型车辆计算架构带来的难题,可以看到DRA829V 主要是处理数据交互和安全的问题。
很多人都把这款芯片和 NXP发布的S32G混淆了,虽然两个芯片都是用作网关,但是主要的出发点是不同的。
NXP的S32G是作为一个成熟的网络处理器设计的,处理各控制器的OTA升级、数据网关的交互,安全信息的传输等任务,其实没有看到PCIE接口的速信号的转发。
而DRA829V 更多是车内高速信号的集联和转发,同时也网关控制的功能,网关控制并不是主节点,仅仅是附属功能。
TDA4VM自动驾驶芯片
由于使用该芯片的车型还没有曝光,先来看看这颗芯片的规格参数。
1Processor cores:
• C7x floating point, vector DSP, up to 1.0 GHz, 80 GFLOPS, 256 GOPS
• Deep-learning matrix multiply accelerator (MMA), up to 8 TOPS (8b) at 1.0 GHz
• Vision Processing Accelerators (VPAC) with Image Signal Processor (ISP) and multiple vision assist accelerators
• Depth and Motion Processing Accelerators (DMPAC)
• Dual 64-bit Arm® Cortex®-A72 microprocessor subsystem at up to 1.8 GHz, 22K DMIPS
-- 1MB shared L2 cache per dual-core Cortex®-A72 cluster
-- 32KB L1 DCache and 48KB L1 ICache per Cortex®-A72 core
• Six Arm® Cortex®-R5F MCUs at up to 1.0 GHz, 12K DMIPS
-- 64K L2 RAM per core memory
-- Two Arm® Cortex®-R5F MCUs in isolated MCU subsystem
-- Four Arm® Cortex®-R5F MCUs in general compute partition
• Two C66x floating point DSP, up to 1.35 GHz, 40 GFLOPS, 160 GOPS
• 3D GPU PowerVR® Rogue 8XE GE8430, up to 750 MHz, 96 GFLOPS, 6 Gpix/sec
• Custom-designed interconnect fabric supporting near max processing entitlement
Memory subsystem:
• Up to 8MB of on-chip L3 RAM with ECC and coherency
-- ECC error protection
-- Shared coherent cache
-- Supports internal DMA engine
• External Memory Interface (EMIF) module with ECC
-- Supports LPDDR4 memory types
-- Supports speeds up to 3733 MT/s
-- 32-bit data bus with inline ECC up to 14.9GB/s
• General-Purpose Memory Controller (GPMC)
• 512KB on-chip SRAM in MAIN domain, protected by ECC
Safety: targeted to meet ASIL-D for MCU island and ASIL-B for main processor
• Integrated MCU island subsystem of Dual Arm® Cortex®-R5F cores with floating point coprocessor and optional lockstep operation, targeted to meet ASIL-D safety requirements/certification
-- 512B Scratchpad RAM memory
-- Up to 1MB on-chip RAM with ECC dedicated for R5F
-- Integrated Cortex®-R5F MCU island isolated on separate voltage and clock domains
-- Dedicated memory and interfaces capable of being isolated from the larger SoC
• The TDA4VM main processor is targeted to meet ASIL-B safety requirements/certification
-- Widespread ECC protection of on-chip memory and interconnect
-- Built-in self-test (BIST) an
正常情况下看规格书都是英文,这里简单对于高性能参数方面再阐述一下。
TDA4VM处理器核采用C7x浮点,矢量DSP,高达1.0 GHz, 80 GFLOPS, 256 GOPS;
深度学习矩阵乘法加速器(MMA),1.0GHz高达8 TOPS (8b);
视觉处理加速器(VPAC)和图像信号处理器(ISP)和多个视角辅助加速器;
深度和运动处理加速器(DMPAC);
具有两个64位 Arm® Cortex®-A72微处理器子系统,工作频率高达1.8GHz,22K DMIPS;
每个Cortex®-A72核集成了32KB L1 DCache和48KB L1 ICache,有六个Arm® Cortex®-R5F MCU,工作频率高达1.0GHz,12 K DMIPS;
每个核存储器为64K L2 RAM,隔离MCU子系统有两个Arm® Cortex®-R5F MCU,通用计算部分有四个Arm® Cortex®-R5F MCU,两个C66x浮点DSP,工作频率高达1.35 GHz, 40 GFLOPS, 160 GOPS;
TDA4VM处理器仅使用5到20W的功率执行高性能ADAS运算,无需主动冷却。
高性能内核概述:
"C7x"下一代DSP 将TI 行业领先的DSP 和EVE 内核整合到单个性能更高的内核中并增加了浮点矢量计算功能,从而实现了对旧代码的向后兼容性,同时简化了软件编程。在典型汽车最坏情况结温125°C 下运行时,新型"MMA"深度学习加速器可在业界最低功率包络内实现高达8TOPS 的性能。专用的ADAS/AV 硬件加速器可提供视觉预处理以及距离和运动处理,而不会影响系统性能。
TI公司的TDA4VM处理器系列是基于Jacinto™ 7架构,目标用在驾驶辅助系统(ADAS)和无人驾驶汽车(AV).TDA4VM处理器具有强大的片上数据分析的能力,并与视觉预处理加速器相结合,从而使得系统性能更高效。汽车厂商和一级供应商可用来开发前置摄像头应用,使用高分辨率的800万像素摄像头,帮助车辆看得更远并且可以加入更多驾驶辅助增强功能。
此外,TDA4VM处理器能够同时操作4到6个300万像素的摄像头,同时还可以将雷达、激光雷达和超声波等其他多种感知处理融合在一个芯片上。这种多级处理能力使得TDA4VM能够胜任ADAS的中心化处理单元,进而实现自动泊车应用中的关键功能(如环绕视图和图像渲染显示),同时增强车辆感知能力,实现360度的识别感知。
从整个芯片性能和功能来看,结合无人驾驶系统架构,其实TI的ADAS芯片和瑞声的V3H基本上十分类似,都是做图像或者雷达的数据融合处理,而且都是以低功耗为主,算法需要十分强大,这样提高芯片的处理能力,把处理完的信号再给到控制芯片。
TDA4M 优势:
以更低的功耗提高车辆感知能力
通过接入摄像头、雷达和激光雷达数据,ADAS技术帮助汽车看到并适应周围的世界。大量信息涌入汽车意味着处理器或片上系统需要快速有效地实时管理多级数据处理,并且需要满足系统的功耗要求。TI的新处理器仅使用5到20W的功率执行高性能ADAS运算,无需主动冷却。
TDA4VM 以业界领先的功耗/性能比为传统和深度学习算法提供高性能计算,并具有很高的系统集成度,从而使支持集中式ECU 或独立传感器中多种传感器模式的高级汽车平台实现可扩展性和更低的成本。
关键内核包括具有标量和矢量内核的下一代DSP、专用深度学习和传统算法加速器、用于通用计算的最新Arm 和GPU 处理器、集成式下一代成像子系统(ISP)、视频编解码器、以太网集线器以及隔离式MCU 岛。所有这些都由汽车级安全硬件加速器提供保护。
地平线自动驾驶平台方案介绍
地平线具有领先的人工智能算法和芯片设计能力,通过软硬结合,设计开发高性能、低成本、低功耗的边缘人工智能芯片及解决方案,面向智能驾驶和 AIoT ,地平线可提供超高性价比的边缘 AI 芯片、极致的功耗效率、开放的工具链、丰富的算法模型样例和全面的赋能服务。
依托行业领先的软硬结合产品,地平线向行业客户提供"芯片 + 算法 + 工具链"的完整解决方案。在智能驾驶领域,地平线同全球四大汽车市场(美国、德国、日本和中国)的业务联系不断加深,目前已赋能合作伙伴包括奥迪、博世、长安、比亚迪、上汽 、广汽等国内外的顶级 Tier1s ,OEMs 厂商;
而在 AIoT 领域,地平线携手合作伙伴已赋能多个国家级开发区、国内一线制造企业、现代购物中心及知名品牌店。目前基于创新的人工智能专用计算架构 BPU(Brain Processing Unit),地平线已成功流片量产了中国首款边缘人工智能处理器--专注于智能驾驶的 "征程(Journey)"系列处理器和专注于 AIoT 的 "旭日(Sunrise)" 系列处理器,并已大规模商用。
**车规级芯片道路上,公司有超强的耐心和长远规划的战略能力,2020年6月长安UNI-T上市标志着公司的征程二代成为中国首个车载商用量产的AI芯片,万里长征路已经取得领先。**相比其他AI芯片新秀一开始就进入手机、摄像头等消费级场景希望快速实现收入增长,地平线选择了一条最困难的道路,挑战AI行业的珠穆朗玛峰------车规级AI芯片,并进入与传统芯片巨头搏杀的赛道。
自2015年创立以来,地平线仅用了5年的时间即实现了车规AI芯片的量产落地,开启国产车规级AI芯片的前装量产元年。公司目前拥有多个主机厂定点项目订单,2020~2023年预计将迎来全面的收入和业绩爆发式增长。考虑到样片流片、车规级认证和车型导入的时间,**地平线成立5年即实现车规AI芯片量产在整个汽车电子行业都处于领先位置。与此相比,Mobileye的车规芯片从研发到正式商用历时8年;**作为全球通用AI芯片龙头的英伟达,在CUDA发布后9年才将K1芯片应用于奥迪A8的车用系统。
征程系列芯片可以同时支撑智能汽车智能座舱AI应用和自动驾驶应用,应用于智能座舱域和自动驾驶域,最终成为中央计算平台主控芯片。目前征程二代可支撑L2自动驾驶应用,下一代芯片将支持L3/L4自动驾驶应用。
未来智能座舱走向交互方式升级,例如车内视觉(光学)、语音(声学)以及方向盘、刹车踏板、油门踏板、档位、安全带等底盘和车身数据,利用生物识别技术(车舱内主要是人脸识别、声音识别),来综合判断驾驶员(或其他乘员)的生理状态(人像、脸部特征等)和行为状态(驾驶行为、声音、肢体行为),做到让车真正"理解"人,座舱演变成全面"个人助理"。
因此地平线去年发布的征程二代芯片拥有强大的智能座舱多模感知算法支撑能力,并在2020年4月上市的长安SUV车型UNI-T上正式商用,目前UNI-T智能座舱功能如视线亮屏、分心提醒、疲劳监测、智能语音拍照等均已达到成熟稳定的高标准用户体验。
目前征程二代能够对多类目标进行实时检测和精准识别,并提供高精度且低延迟的感知输出,可满足自动驾驶视觉感知、视觉建图定位、视觉 ADAS 等智能驾驶场景的需求,以及语音识别,眼球跟踪,手势识别等智能人机交互的功能需求。
可以同时跑超过 60 个分类任务,每秒钟识别目标数可以超过 2000 个,因此完全可以满足L2级别智能驾驶的各类视觉应用需求,预计2020年~2021年将会看到正式搭载征程系列芯片实现ADAS功能的量产汽车。
地平线2020年1月份宣布推出新一代自动驾驶计算平台------Matrix 2.0,搭载地平线征程二代车规级芯片,可满足L2~L4级别自动驾驶需求。感知层面, Matrix 2.0可支持包括摄像头、激光雷达在内的多传感器感知和融合,实现高达23类语义分割以及六大类目标检测,感知算法还能够应对复杂环境,支持在特殊场景或极端天气的情况下输出稳定的感知结果。
在Robotaxi 领域,地平线与多家顶级自动驾驶运营公司达成合作,目前Matrix 被应用于近千辆的测试车队并开已开展商业运营服务;在整车厂领域,地平线与奥迪长期在高级别自动驾驶技术研发及产品化等方面展开合作,助力奥迪在无锡获得了 L4 路测牌照,奥迪中国首次在国内实际高速公路场景进行乘用车编队 L4 自动驾驶及车路协同演示也是采用Matrix计算平台。
新产品路径规划清晰,下一代芯片均在研发和实流片途中,预期单芯片算力未来将接近100TOPS,处理多达16路视频信号。地平线征程二代芯片成功商用是公司新的里程碑,目前征程二代已经拿到多个国家的市场客户的前装的定点。公司后续新产品升级和规划也在快速推进和落地,优秀的商业落地成绩源于持续不断的前瞻性技术探索和 AI 芯片产品的快速迭代。
作为全球边缘 AI 芯片领导者,地平线继 2019 年成功推出车规级 AI 芯片征程 2 之后,将于今年推出面向高等级自动驾驶的旗舰级芯片征程 5,具备 96TOPS 的 AI 算力,实际性能领先国际,并将以边缘人工智能芯片为核心,面向自动驾驶落地应用的实际需求,为产业提供具备极致效能、全面灵活的赋能服务。
5月9日消息,国产车载AI芯片厂商地平线官方宣布,其第三代车规级产品,面向L4高等级自动驾驶的大算力征程5系列芯片,比预定日程提前一次性流片成功并且顺利点亮!
作为业界第一款集成自动驾驶和智能交互于一体的全场景整车智能中央计算芯片,征程 5 系列芯片基于 SGS TV Saar认证的汽车功能安全(ISO 26262)产品开发流程体系打造,单颗芯片 AI 算力最高可达 128 TOPS,同时支持 16 路摄像头感知计算。此外,基于征程 5 系列芯片,地平线将推出 AI 算力高达 200~1000TOPS 的系列智能驾驶中央计算机,兼备业界最高 FPS(frame per second) 性能与最低功耗。
在J5之前,地平线已先后推出车规级芯片J2以及J3。目前J2、J3已在长安、奇瑞等多家车企的车型上实现量产,后续拿下长城、东风岚图、广汽、江淮、理想、上汽(按照首字母排序)等多家自主品牌车企的多款主力爆款车型上实现定点开发,预计这1-2年会陆续出货。
J5将是地平线第一款面向高等级自动驾驶的大算力芯片,J5将在今年内正式发布。据此前官方披露的消息,基于J5的合作车型量产预计在2022年。