4级或5级的自主驾驶很难有一个明确的标准来定义,自主驾驶应该不复杂。自动驾驶其实涉及三个问题:一、我在哪里?第二,我要去哪里?第三是怎么去。这三个问题的完整解决方案就是真正的自动驾驶。所以特斯拉升级的8000美元自动驾驶2.0只有部分线控功能,并不是真正的自动驾驶。福特、百度、谷歌做的都是真正的自动驾驶,远超特斯拉,两者差别巨大。
第一个问题是定位,自动驾驶需要厘米级定位。
第二个问题是路径规划。第一层是点对点非时间依赖的拓扑路径规划,第二层是实时毫秒避障规划。第三层是将规划分解为纵向(加速度)和横向(角速度)规划。
第三个问题是车辆执行机构执行垂直和水平规划,即线控系统。
目前自动驾驶的技术基本上来自机器人,自动驾驶可以看成是轮式机器人加舒适的沙发。定位和路径规划是机器人系统中的一个问题。没有本土化,就无法规划路径。厘米级实时定位是目前自动驾驶面临的最大挑战之一。对于机器人系统,定位主要依靠SLAM和Prior Map的交叉比较。SLAM是同时定位和测绘的缩写,意思是“同时定位和测绘”。指的是在根据传感器的信息计算自身位置的同时构建环境地图的过程。目前SLAM主要应用于机器人学、虚拟现实和增强现实。它的应用包括定位传感器本身,以及后续的路径规划和场景理解。
随着传感器类型和安装方式的不同,SLAM的实现和难度会有很大的差异。根据传感器,SLAM主要分为两类:激光和视觉。其中激光SLAM研究较早,理论和工程都比较成熟。目前(2016年)视觉方案还处于实验室研究阶段,商用产品应用在室内和低速都是没有用的,更何况高速运动的室外环境远比室内复杂。单从这一点来看,激光雷达是自动驾驶必不可少的传感器。
自1988年提出SLAM研究以来,已经过去了近三十年。早期的SLAM研究侧重于使用过滤理论。21世纪后,学者们开始借鉴SfM(从运动到结构),基于优化理论解决SLAM问题。该方法取得了一定的成果,在可视化SLAM领域取得了主导地位。人们有时会混淆SLAM和视觉里程表的概念。应该说,视觉里程表是视觉SLAM的一个模块,旨在增量估计相机运动。然而,一个完整的SLAM还包括添加循环检测和全局优化,以获得准确和全局一致的地图。目前,用于视觉传感器的开源SLAM算法主要分为三类,即稀疏方法,也称为特征点方法。密集法,主要是RGB-D,半密集法是目前最热门的领域,广泛应用于单目和双目。激光SLAM的主要方法有Hector、Gmapping、Tiny。
机器人定位有三种常见的类型:相对定位、绝对定位和组合定位。自动驾驶一般采用组合定位。首先,本体感受传感器如里程计和陀螺仪测量相对于机器人初始姿态的距离和方向,以确定机器人的当前姿态,这也称为轨迹估计。然后使用激光雷达或视觉感知环境,使用主动或被动识别、地图匹配、GPS或导航信标进行定位。位置的计算方法包括三角测量、三边测量和模型匹配算法。从这个角度来说,IMU也是自动驾驶必不可少的一部分。
同时,机器人定位实际上是一个概率问题,所以机器人定位算法有两个流派,一个是卡尔曼滤波,一个是贝叶斯推理。有扩展卡尔曼滤波器(EKF)、卡尔曼滤波器(KF)和无迹卡尔曼滤波器(UKF)。另一种是基于贝叶斯推理的定位方法。网格和粒子用于描述机器人位置空间,递归计算状态空间中的概率分布,如马尔可夫定位(MKV)和蒙特卡罗定位(MCL)。
在地图匹配中,必须有一个优先地图与之比较。这张地图不一定是厘米级高精度地图。有必要谈谈地图,它可以分为四类,即度量、拓扑、传感器和语义。我们最常见的地图是语义级地图。无人驾驶不是导弹。一般输入目的地应该是语义层面。毕竟人类的交通方式是语义层面,不是地理坐标。这是机器人和无人驾驶的区别之一。机器人一般不考虑语义,只需要知道自己在坐标系中的位置。全球定位系统提供全球坐标系的度量。未来,V2X将提供雷达和视觉探测距离(NLOS)之外的特定物体(移动的行人和汽车)的地图,或V2X地图。目前国内处于研究阶段的无人车大多采用GPS RTK定位,必须配合厘米级高精度地图才能获得语义信息,不可能做到真正的无人。
无人驾驶的核心是什么?专家一语中的,看完涨知识了