汽车辅助驾驶已经逐渐成为现代汽车的重要组成部分。它不仅能够提升驾驶的安全性,还能为驾驶员提供更加人性化的驾驶体验。而这一切都离不开感知技术的支持。那么,汽车辅助驾驶究竟是如何通过感知技术来实现其功能的呢?
感知方案都有哪些?
蝙蝠通过超声波听声点位,人类通过眼睛和耳朵来感知空间,而在汽车上,则通过各种传感器进行感知。目前市场主流的组合辅助驾驶主要是V+R+L+U的感知组合,其中R代表毫米波雷达,V代表摄像头,L代表激光雷达,U代表超声波雷达,此外,车内的车载驾驶员监控(DMS)也算作一个摄像头。
举例来说,以比亚迪的天神之眼C为例,其配备了5个毫米波雷达与12个摄像头,包括3颗800万前视摄像头、4颗300万环视摄像头、4颗300万侧视摄像头、1颗300万后视摄像头,也就是5R12V感知方案。
V+R+L+U们看到的世界是什么样的?
以奔驰为例,其前视采用双目摄像头。双目摄像头通过两个摄像头同时感知前方物体,并利用视差算法计算物体距离,从而实现较为精准的测距功能。
视差算法有一个特点,就是左右两个摄像头的距离越远,测距能力越远。但由于汽车内部空间有限,摄像头普遍集成在风挡玻璃后视镜的位置,2个摄像头之间的距离一般为十几厘米,导致其探测距离略显不足。
而比亚迪、小鹏等公司,则在双目的基础上,又加上了一个长焦,有了三目摄像头。以比亚迪代表性的三目前视摄像头为例,其三目摄像头包括两个用于视差算法的双目摄像头和一个长焦镜头。其中2个广角摄像头探测角度为120度,800万像素,1个长焦摄像头探测角度为30度,800万像素。其中,长焦镜头主要用于识别远处的小物体,如红绿灯等;双目摄像头通过视差算法测距,系统可以精确计算前方物体的距离。通过双目视差算法可以获得稠密点云,可以清晰地感知到路面的起伏和坑洼,如主动悬架的预瞄等。
根据比亚迪提供的资料,在三目方案下最高探测距离达到350米,实现1cm的物体探测精度,甚至可以对路面进行预瞄,识别路面上的减速带、凹陷等,提前让车辆减速通过。
同时在现有技术的支撑下,多个摄像头的设计也能支持系统同时运行多种算法。如其中一个摄像头运行AI算法,识别特定类型的障碍物,如车辆、行人和自行车、车道线等。长焦镜头用于远距离物体识别,如AEB、ACC、红绿灯,从而提高系统的识别范围和准确性,满足当下城市辅助驾驶的要求。
说到算法,不得不提到BEV和Occupancy。BEV是Bird’sEyeView的缩写,即鸟瞰视角技术。BEV将多个摄像头拍摄的图像拼接成一个全景图像的技术。根据传感器不同,可以分为BEVLiDAR点云类,还有BEVCamera图像类,还有BEVFusion融合类。
举例来说,通过多个摄像头采集图像后融合,系统将采集图像通过矫正后,统一输入到神经网络来提取特征,然后通过注意力机制的神经网络模型transformer将这些特征进行关联,之后再投影到一个向量空间之中,最终拿到一张反映周围环境的鸟瞰图。这种算法可以帮助系统识别障碍物并确定可行驶区域,但BEV感知无法预测悬垂的障碍物,如开启的车门,限高的栏杆等,这个时候就要请出Occupancy占用网络了。
BEV算法所采集的图像输出为2D,而Occupancy占用网络将其升维为3D,这有点像俄罗斯方块,占用网络就是将世界网格化,定义哪个单元被占用,哪个单元是空闲的。
占据网络算法通过分析前方物体的形状和位置,判断哪些区域是可以安全行驶的,哪些区域存在潜在的障碍物。只要空闲的单位格没被占用,那么就可以通行,汽车识别能力大幅提升。这种功能对于城市驾驶尤为重要,因为在城市环境中,车辆需要频繁应对复杂的道路状况和多变的障碍物。
但中国道路环境和路况更加复杂,单纯依靠视觉感知,还存在一些不足。于是,激光雷达就成了当前行业较为主流的感知方案。
激光雷达通过激光束扫描构建环境点云图,线数越多,垂直分辨率越高。以目前主流的192线雷达为例,其点云图可清晰分辨200米外车辆轮廓,但对体积更小的异物,如倒伏在道路中央的轮胎、锥桶等,在200米远时仅能模糊识别为异物,需要在100米,乃至50米时才能较为清楚地分辨出其轮廓。
虽然ADAS摄像头能够提供更丰富的视觉信息,但在不同光照条件和物体材质的情况下,摄像头的测距精度和识别能力明显不如激光雷达。测距不准,意味着下降较低。
而激光雷达能够实时获取三维点云数据,并快速构建出环境的三维模型。让车辆能够快速全面了解周围的道路、障碍物和其他车辆的位置和运动状态,为决策系统提供丰富的信息。简单来说,激光雷达不会被表面图案欺骗,它只关心是否存在障碍物。(朋月)