自动驾驶---行泊一体(车位到车位功能)量产

1 背景

行泊一体是智能驾驶领域的一个发展方向,也是完整功能的一种体现。早期行泊一体的概念指的是:将原本独立的行车和泊车功能集成在一个域控制器中,实现传感器深度复用和计算资源共享;但是随着技术的发展,不仅仅局限于控制器的共享,甚至可以集成在同一个planner下(不论是大模型planner还是传统的planner)。

有了行泊一体的技术,那么自动驾驶的点到点(Point-to-Point,P2P)产品也就涌现出来了,车辆从起始位置(点A)自动行驶到目的地(点B)的整个过程,涵盖了从起始点--->终点的完整旅程,其中的道路类型可能包括结构化道路以及非结构化道路。

目前从网络上看到有六家公司公布了车位到车位的产品计划,其中华为已经在ADS 3.0版本量产;雷总在2024.11.14也演示了小米su7在该功能下的表现(全程零接管,全国首次直播该功能的车企,直播场景里复杂的动态交互场景不多,预计在24年底推送先锋版测试);理想汽车在今年三季度电话会议上宣布会在2024年底推送该功能;在2024.11.15的广州车展上,小鹏汽车宣布图灵AI智驾下的车位到车位功能也正式开始内测;蔚来以及极氪计划在2025年量产。

2 车位到车位(点到点)

从产品形态上叫做车位到车位,从专业术语来说叫做行泊一体,更高级别的可以称之为点到点。目前各家都宣布该功能是端到端技术(雷总在直播中说了小米智驾采用了VLM大模型,直播中su7可以语音识别消防栓和超市购物车)**,这也是今年智驾技术发展的一个主旋律。**下文中主要通过行泊一体来对该技术进行说明。

(1)定义

定义:行泊一体是指将智能驾驶的行车功能和自动泊车功能集成在一个域控制器上,通过共享传感器和计算资源,甚至在同一个进程中(或者一个大模型),实现类似两个功能(高速NOA+低速AVP)的工作。

(2)技术特点

  1. 传感器深度复用:行泊一体技术通过共享传感器,如摄像头、毫米波雷达等,实现行车和泊车场景下的数据共享,提高传感器的利用率。
  2. 计算资源共享:将行车和泊车功能集成在一个域控制器上,可以共享计算资源,降低对高算力芯片的需求,从而降低成本。
  3. 功能集成与协同:行车和泊车功能在统一的域控制器下协同工作,可以实现更加复杂的智能驾驶场景,如自动变道、上下匝道、记忆泊车等。如果是大模型的planner,则可以同时训练行车和泊车的数据,实现点到点的功能,如果是传统的planner,则需要行车的planner和泊车的planner在同一个进程中,通过状态机来调度切换。
  4. 支持OTA升级:行泊一体域控制器通常配备高带宽接口和更多算力支持,能够更好地支持OTA升级,方便功能的迭代和更新。

(3)市场趋势

通过搭载行泊一体技术,实现了更加丰富的智能驾驶功能,提升了用户的驾驶体验。

  • 成本降低:随着技术的成熟和规模效应的显现,行泊一体技术的成本将不断降低,使其能够应用于更多中低端车型。
  • 功能丰富:未来,行泊一体技术将支持更多高阶智能驾驶功能,如城市NOA、自主代客泊车等,为用户提供更加全面的智能驾驶体验。
  • 技术迭代:随着算法和硬件的不断升级,行泊一体技术将实现更加精准、高效的感知和决策能力,提升智能驾驶的安全性和可靠性。

综上所述,可以看出自动驾驶行泊一体是未来智能驾驶领域的一个重要发展方向,它通过集成化和资源共享实现了行车和泊车功能的协同工作,为用户提供了更加便捷、安全的智能驾驶体验。随着技术的不断成熟和市场的不断扩大,行泊一体技术将迎来更加广阔的发展前景。下面笔者再顺便介绍华为发布的ADS 3.0技术。

2.2 华为ADS

看过华为车BU发布会的读者应该知道,2024年华为量产的ADS 3.0,是特斯拉之后,第二个实现车位到车位功能的公司。L2+量产智驾产品多如牛毛,城市NOA、高速NOA、记忆行车、记忆泊车、代客泊车以及自动泊车等等各种功能,以前任何一款产品上的体验都是分割的。比如高速NOA只能覆盖从收费站到收费站,城市NOA进了小区,需要用户自己驾车寻找车位,再手动开始自动泊车功能,而华为把所有功能融合在一起,如果做的好的话,在用户体验上会是质的飞跃。

ADS 3.0采用了全新的架构,从BEV(鸟瞰图)到GOD(通用障碍物检测),再到PDP(预测决策规控)网络,实现了从简单的"识别障碍物"到深度的"理解驾驶场景"的跨越式进步。这种架构使得决策和规划更加类人化,行驶轨迹更接近人类驾驶,提高了通行效率,复杂路口通过率超过96%(这个数据有待考证,笔者暂时还没体验过)。

(1)ADS发展历史

笔者顺便再带领读者朋友们熟悉华为 ADS 技术的发展历程,这样对一件事物的看法或者印象会更加深刻。

  • ADS 1.0
    • 发布时间:2021年。
    • 搭载车型:
      • 极狐阿尔法 S HI 版:这是较早搭载华为 ADS 1.0 的车型,拥有三颗激光雷达等感知硬件,具备一定的智能驾驶能力。
    • 技术特点
      • 多传感器融合:采用包括激光雷达、毫米波雷达、摄像头等多种传感器的融合方案,通过对这些传感器采集到的数据进行综合分析,实现对车辆周围环境的感知。例如,激光雷达可以精确地测量物体的距离和形状,摄像头能够识别物体的颜色和纹理,毫米波雷达则在恶劣天气条件下具有较好的性能,这些传感器的融合为车辆提供了全面的环境信息。
      • 高精地图依赖:高度依赖高精地图进行路径规划,车辆需要提前获取城市或道路的高精地图数据,以便在行驶过程中准确地了解道路的形状、坡度、交通标志等信息,从而实现自动驾驶。不过,这种技术方案在一些特定城市能够实现较为稳定的自动驾驶功能,但在城市拓展性方面存在局限性,因为高精地图的覆盖和更新需要较高的成本和时间。
    • 硬件配置:配备 3 个激光雷达、6 个毫米波雷达和 13 个摄像头以及 12 个超声波雷达,较高的硬件配置确保了系统具备较高的环境感知能力,但也导致了硬件成本的上升,增加了整车的制造成本和系统复杂性。
  • ADS 2.0
    • 发布时间:2023年4月。
    • 搭载车型:
      • 问界新 M7:2023 年 9 月推出的问界新 M7 搭载了 Huawei ADS 2.0 高阶智能驾驶系统,实现了不依赖于高精地图的高速、城区高阶智能驾驶。
      • 阿维塔 11:作为一款智能电动汽车,阿维塔11 标配鸿蒙座舱和华为高阶智驾系统 ADS 2.0,拥有深度定制的智能体验。
      • 智界 S7:这款华为智选与奇瑞合作的中型轿车,曾预计搭载华为 ADS 2.0 智能驾驶系统,但最终可能因发布时间等因素有所变化。
    • 技术特点
      • 自主感知与无图驾驶突破:最大的亮点是实现了 "无图驾驶"。华为通过自主感知技术和路径规划算法,使车辆能够在没有高精地图的情况下自主识别车道、障碍物及周围环境,从而实现智能驾驶。这标志着华为在智能驾驶技术领域从依赖外部数据到完全自主感知的跨越。
      • GOD 算法:采用 GOD(Generalized Occupancy Network)算法,通过将外界环境划分为多个立方体,并判断每个立方体的占用状态,系统能够实时生成精确的环境模型,极大地提高了系统在复杂城市环境中的泛化能力。
    • 硬件优化:对硬件配置进行了进一步优化,激光雷达数量从 3 个减少到 1 个,毫米波雷达数量从 6 个减少到 3 个,摄像头从 13 个减少到 11 个,在降低硬件成本的同时,依然保证了系统的感知能力和稳定性。
  • ADS 3.0
    • 发布时间:2024年。
    • 搭载车型:
      • 享界 S9:于 2024 年 5 月被余承东称首发搭载华为 ADS 3.0。
      • 智界 R7:在 2024 天津车展上亮相,基于途灵底盘平台开发,搭载 ADS 3.0端到端类人智驾系统,支持离车泊入、代客泊车、召唤等高阶智能驾驶功能。
      • 新款岚图梦想家:作为一款 MPV 车型,搭载了华为 ADS 3.0系统,实现了智能驾驶功能的升级。
      • 广汽传祺概念车 1concept 的量产车:预计将于 2025 年第一季度上市,将搭载华为 ADS 3.0系统。
      • 方程豹 "豹 8":比亚迪旗下的方程豹 "豹 8" 车型将搭载比亚迪自研的 DMO 超级混动越野平台以及全功能版云辇 -P 智能液压车身控制系统,并结合华为乾昆智驾 ADS 3.0系统。
    • 技术特点
      • 端到端大模型的应用:引入端到端大模型架构,区别于特斯拉所宣传的一个端到端(其实官方并没有公布,这里也只是猜测) 模型,华为 ADS 采用感知 + 决策分层的 GOD + PDP 架构,使得系统能够在不同场景下进行自主感知、决策和路径规划,并实现复杂环境中的智能驾驶。通过大规模数据训练,系统能够从传感器输入中直接生成决策和路径规划结果,简化了传统的分阶段处理流程,显著提升了系统的智能化程度和实时响应能力。
      • 车位到车位的全自动驾驶:功能进一步扩展,支持从停车位到停车位的全自动驾驶,包括自动泊车和复杂环境中的自主导航,为用户提供了更加便捷的驾驶体验。
    • 安全升级:搭载全向防碰撞系统 CAS 3.0,前向主动安全再增强,侧向主动安全再进阶,能够实现跨车道避让,以及对横穿、斜穿物体的识别和避让。

(2)ADS 3.0技术

进入2024年**,智驾的第一个变化就是所有企业为了保证智驾场景的通用性,从重依赖高精地图到弱依赖高精地图,即从有图到无图的转变。第二个变化就是规控大模型的使用,在2024年之前,除了感知模块采用模型之外,规控还是基于普通优化算法迭代,进入2024年之后,国内企业开始在规控模块也开始卷起了大模型。**

下面基于笔者搜集到的信息,给读者朋友们详细介绍华为ADS 3.0技术(图片均来源于网络)。

  • 技术架构与原理
    • 端到端架构:华为自动驾驶车位到车位技术采用端到端的全新架构,这种架构将感知、决策、规划和控制等环节紧密地结合在一起,形成一个完整的闭环系统。通过对车辆行驶过程中的各种数据进行实时采集、分析和处理,实现了从车位到车位的全场景贯通智能驾驶。例如,车辆从停车场的车位出发,系统能够根据设定的目的地,自动规划出最优的行驶路线,包括驶出停车场、在公开道路上行驶、进入目的地的停车场以及找到合适的车位停车等全过程,无需人工干预。
    • 强大的感知系统:该技术配备了先进的感知系统,包括多种传感器,如摄像头、毫米波雷达、激光雷达等。这些传感器能够实时获取车辆周围的环境信息,如道路状况、障碍物、行人、车辆等。并且,华为的通用障碍物识别(GOD---General Obstacle Detection,有些类似OCC)大网技术,不仅可以识别常规的白名单障碍物,还能深度理解驾驶场景,感知道路结构和场景语义,对物理世界有更全面的理解能力,为智能驾驶提供准确的环境感知基础。
  • RCR网络(Road Cognition & Reasoning,道路拓扑推理网络) :这一点很少讲到,RCR网络是为了进一步让智驾摆脱高精地图的依赖,结合普通导航地图来与现实进行匹配和印证,再实时通过传感器来拓补绘制一幅可用的行车地图。有了RCR网络,智驾系统能够做到具体路况具体分析,真正地做到了看得懂路
  • 预测决策规控网络:采用预测决策规控(PDP)网络,实现了预测、决策和规划一张网,使得决策和规划更加类人化,行驶轨迹更接近人类驾驶,通行效率更高。在面对复杂的交通状况和路口时,系统能够提前预判并做出合理的决策,例如选择合适的车道、控制车速、避让其他车辆和行人等,确保行驶的安全和顺畅。根据笔者的了解,华为ADS 3.0并没有端到最后控制模块,模型也只是输出Agent轨迹,后续做一层平滑/优化送给控制模块。
  • 功能特点
    • 全场景覆盖:真正实现了车位到车位的智能驾驶,覆盖了从停车场到公开道路,再到园区、地下停车场等各种复杂场景。无论是在狭窄的停车场通道、繁忙的城市道路,还是在复杂的园区环境中,车辆都能够自主行驶,完成整个行程。例如,车辆可以自行穿越各种停车场的窄道,顺利出闸、入闸,还能在到达目的地后自动下地库、快速找车位。
    • 高度的自动化:用户只需选择好目的地,车辆就能自动完成整个驾驶过程,极大地减轻了驾驶者的负担。在行驶过程中,系统能够自动处理各种情况,如通过收费闸机、过环岛、绕过违停车辆等超复杂城市驾驶工况。
    • 智能交互与安全保障:具备良好的人机交互功能,能够及时向用户反馈车辆的行驶状态和相关信息,让用户随时了解车辆的动态。同时,在安全方面,系统配备了全方位的安全保障措施,如自动紧急制动、紧急转向辅助等,当遇到潜在的危险时,能够及时做出反应,保障驾乘人员的安全。
  • 应用车型与发展前景
    • 应用车型:目前,华为自动驾驶车位到车位技术已经在一些车型上得到了应用,如享界 S9、新款岚图梦想家等。这些车型搭载了华为最新的 ADS 3.0 高阶智驾系统,成为了市场上备受关注的智能驾驶汽车。
    • 发展前景:随着技术的不断进步和完善,华为自动驾驶车位到车位技术有望在未来得到更广泛的应用,推动智能驾驶技术的发展,为人们的出行带来更大的便利和安全保障。同时,该技术也将为汽车行业的智能化转型提供有力的支持,促进汽车产业的升级和发展。

3 总结

国内华为算是智驾技术第一梯队,首先发布了车位到车位的产品。车位到车位的智能驾驶,覆盖了从停车场到公开道路,再到园区、地下停车场等各种复杂场景。无论是在狭窄的停车场通道、繁忙的城市道路,还是在复杂的园区环境中,车辆都能够自主行驶,完成整个行程。后面有机会介绍小米智驾的进展。

车位到车位的产品形态也是自动驾驶在当前背景下的终极形态,体验在笔者看来分为三个方面:(1)安全性;(2)接管率;(3)舒适性。

任何一家公司如果能把该产品做好都需要付出极大的努力,甚至需要很长时间的迭代。

相关推荐
睡觉狂魔er几秒前
自动驾驶控制与规划——Project 3: LQR车辆横向控制
人工智能·机器学习·自动驾驶
scan72423 分钟前
LILAC采样算法
人工智能·算法·机器学习
leaf_leaves_leaf26 分钟前
win11用一条命令给anaconda环境安装GPU版本pytorch,并检查是否为GPU版本
人工智能·pytorch·python
夜雨飘零131 分钟前
基于Pytorch实现的说话人日志(说话人分离)
人工智能·pytorch·python·声纹识别·说话人分离·说话人日志
菌菌的快乐生活44 分钟前
理解支持向量机
算法·机器学习·支持向量机
爱喝热水的呀哈喽1 小时前
《机器学习》支持向量机
人工智能·决策树·机器学习
大山同学1 小时前
第三章线性判别函数(二)
线性代数·算法·机器学习
minstbe1 小时前
AI开发:使用支持向量机(SVM)进行文本情感分析训练 - Python
人工智能·python·支持向量机
月眠老师1 小时前
AI在生活各处的利与弊
人工智能
四口鲸鱼爱吃盐1 小时前
Pytorch | 从零构建MobileNet对CIFAR10进行分类
人工智能·pytorch·分类