文献标识码:A
DOI:10.16157/j.issn.0258-7998.199062
中文引用格式:王金强,黄航,郅朋,等. 自动驾驶发展与关键技术综述[J].电子技术应用,2019,45(6):28-36.
英文引用格式:Wang Jinqiang,Huang Hang,Zhi Peng,et al. Review of development and key technologies in automatic driving[J]. Application of Electronic Technique,2019,45(6):28-36.
0 引言
从20世纪70年代开始,自动驾驶技术在美国、英国、德国等发达国家就被开始进行研究,并在可行性和实用化方面取得了突破性的进展。2004年,美国国防高级研究计划局(The Denfense Advanced Research Project Agency,DARPA)在Mojave沙漠组织的自动驾驶挑战赛推动了自动驾驶领域的技术的快速发展。2007年,卡内基梅隆大学在该比赛中取得第一名的优秀成绩[1],从此,全球学术界和工业界对自动驾驶技术开始投入大量的研究,以斯坦福大学、麻省理工学院和弗吉尼亚理工大学为代表的高校在技术领域的深耕为硅谷明星企业奠定了发展基础。同时工业界更是取得了突破性的、革命性的进展,Google于2009年4月开启了Waymo[2]自动驾驶研究计划,随后Uber[3]、特斯拉[4]、福特[5]、博世[6]、梅赛德斯奔驰[7]、丰田[8]等也相继进军自动驾驶领域。我国从20世纪80年代开始进行自动驾驶汽车的研究,1992年,国防科技大学成功研制出中国第一辆自动驾驶汽车ATB-1(AutonomousTestBed-1)。过去几年,百度[9]、Pony.ai[10]等公司相继快速步入了全球自动驾驶技术研发的前列,可以说自动驾驶技术再次引领了整个汽车技术的突破。在车辆智能化的分级中,工业界目前有两套标准,一套是由美国交通部下属的国家高速路安全管理局(National Highway Traffic Safety Administration,NHSTA)制定的,另一套是由国际汽车工程师协会(Society of Automotive Engineers,SAE)制定的。两者的L0、L1、L2的分类都是相同的,不同之处在于NHTSA的L4被 SAE细分为L4和L5。国内多采用SAE标准,如表1所示。
从自动驾驶诞生以来,社会各界对自动驾驶技术的争议就没停止过。然而,这项未来技术始终在困难中向前发展,其无疑正在成为当下最大的技术变革。它是一门非常复杂的交叉学科,包含了车辆控制、路径规划、感知融合、传感器融合等众多技术。尤其在人工智能技术的快速发展下,机器学习[11]、深度学习、强化学习[12]等前沿领域更是推动了自动驾驶感知、规划和控制方面的快速变革,自动驾驶技术已经掀起了一场交通变革的技术革命。
1 自动驾驶系统结构
自动驾驶是一个由激光雷达(LiDAR)、毫米波雷达(RADAR)、摄像机(Camera)、全球定位系统(GPS)、惯性测量单元(IMU)等多个传感器和子系统组成的高级复杂性系统性工程,结构如图1所示。
在技术功能上,自动驾驶的关键技术整体概述为感知(Perception)、规划(Planning)和控制(Control)三部分,系统如图2所示。
该系统实际上是一个分层结构,感知、规划、控制模块各自发挥不同的作用并相互影响。其中感知部分和车辆传感器硬件交互与通信,规划主要负责汽车的行为等的计算,控制则是对汽车元器件的电子化操作。本文将对自动驾驶车的发展过程与分级、感知、规划和控制等关键技术进行相关综述。
2 自动驾驶中的关键技术
2.1 感知
感知是指自动驾驶系统从环境中收集信息并从中提取相关知识的过程。它负责估计汽车的状态,并使用车载传感器捕获的数据与车辆控制系统和决策单元进行交互,同时利用道路网络、交通规则、汽车动力学等的先验信息进行规划与控制车辆。通常包含环境感知和定位两部分,其中,环境感知(Environmental Perception,EP)特指对于环境的场景理解能力,例如障碍物的类型、道路标志及标线、行人车辆的检测、交通信号等数据的语义分类。定位(Localization)是对感知结果的后处理,通过定位功能从而帮助自动车了解其相对于所处环境的位置。
2.1.1 环境感知
为了确保自动车对车身周围环境的正确理解和对应决策,自动驾驶系统的环境感知部分通常需要获取大量周围环境信息,具体来说包括:车道线检测、红绿灯识别、交通标识牌识别、行人检测、车辆的检测等。
激光雷达和相机的融合是实现行人检测的一种方法,它主要包括空间融合[14]和时间融合。空间融合主要是指建立激光雷达坐标系到图像坐标系的坐标转换关系,该坐标转换关系能够将激光雷达坐标系中的点映射到图像坐标系中。时间融合主要是让各个传感器的输出处在同样的时间线上,以便于多传感器融合。
车道线检测的两大主流方法是基于视觉的车道线检测和基于雷达的车道线检测[15]。基于雷达的车道线检测直接从点云中检测车道线,该方法对雷达的线束要求很高,32线及以下的激光雷达难以用于车道线检测,因为点云太稀疏,车道线的特征不明显。而64线及以上的激光雷达成本高昂,短期内难以大规模推广应用。基于视觉的车道线检测起步较早、发展较成熟、应用也很广泛,但是基于视觉的方法检测到的车道线位于图像坐标系中,难以被自动驾驶系统的其他模块使用。这时可使用多传感器融合技术,先在图像中检测出车道线,然后将激光雷达生成的点投射到图像上,找出落在车道线上的点在激光雷达坐标系中的坐标,通过这些坐标即可拟合出激光雷达坐标系中的车道线。
红绿灯识别有两种方式,一种是基于V2X[16],即智能网联技术。该方式通过在红绿灯上安装信号发射器来不断地向四周发射红绿灯的状态信息。自动车通过接收信号发射器发出的信号来判断红绿灯的状态。该方法稳定性好,可靠性高,但是需要为所有的红绿灯部署信号发射器,并在所有自动车上安装信号接收器,因此成本高昂,短期内难以投入实际应用。另一种方式是基于人工智能的视觉算法,它也是目前业界使用最广泛的一种方法,使用颜色[17]和形状[18]信息来识别红绿灯的方法通常情况下并不稳健。为了增强其稳健性,级联分类器[19]被提出使用,它可能是第一次尝试基于学习的方法。HoG和Gabor特征分类与SVM[20]也是一种独特的解决方法,AdaBoost[21]和JointBoost[22]的组合使得视觉检测发展有了新的突破。最近,端到端方法(不需要手工制作的特征)优于大多数基于模型的方法。JOHN V等人[23]使用GPS数据和交通灯位置数据库用于识别图像中的感兴趣区域,并且采用卷积神经网络(CNN)[24]来识别交通灯状态。同时采用YOLO[25]在LISA[26]数据集上取得了良好的效果,使用LISA训练集时AUC达到90.49%。但是,当使用来自其他数据集的训练数据时,性能下降到58.3%。尽管如此,该方法仍然比以前的方法有所改进,并且表明还有很多工作要做。后来,基于机器学习的方法如SVM、级联分类器[27]和LogitBoost[28]开始被广泛地使用,例如文献[29]。同时,传统的基于视觉的红绿灯检测是使用神经网络直接对原始图像进行检测。该方式受环境影响较大,并且难以处理如图3所示的场景。
在图3所示的场景中,多个红绿灯同时出现在图像中,用于红绿灯检测的神经网络难以确定到底哪一个红绿灯适用于当前车道中的当前位置。一种新的方式是结合高精度地图进行红绿灯检测。该方式将红绿灯的位置、大小等信息存放在高精度地图中。在车辆行驶的过程中,根据车辆的位置从高精度地图中找出适用于当前位置的红绿灯的坐标,并使用坐标转换将地图中的坐标映射到图像中,然后从图像中剪切出感兴趣区域(ROI),如图4所示。对ROI使用目标检测网络进行红绿灯检测,能够有效地降低环境的干扰,并且可以解决同一张图像上存在多个红绿灯的问题。
更进一步地,由于ROI内几乎只包含红绿灯,因此可以将目标检测网络替换为规模更小并且运行速度更快的分类网络,并且不会降低检测精度。
交通标识牌识别的方式与红绿灯检测类似,可以直接使用深度神经网络对原始图像进行交通标识牌检测。也可以结合高精度地图,将交通标志信息存放在高精度地图中,在车辆行驶的过程中,直接根据车辆的位置从高精度地图中获取交通标志信息。
行人、车辆的检测常用的方式有两种,一种是直接使用激光雷达的数据进行目标检测,例如Squeezeseg[30]。另一种是融合激光雷达和相机进行目标检测。激光雷达能够提供精确的位置和大小信息,基于图像的深度学习更擅长目标类别的识别。一种可行的融合激光雷达和相机进行目标检测的方式如下:
对激光雷达生成的点云数据使用地面过滤算法去除其中的地面点,例如文献[31]。对去除地面点后的点云数据使用聚类算法得到一个个的簇。对图像使用深度神经网络进行目标检测得到目标的类别标签,如yolo[32]。将簇通过坐标转换映射到图像上,根据图像上映射的点计算矩形,遍历LiDar检测到的目标,如果目标和Vision检测到的目标的矩形重合面积达到一定阈值,就根据该目标的分类结果进行判断是否符合预先定义的三围,如表2所示。符合则为候选目标,然后在候选目标中找到距离传感器最近的目标即为同一目标,并将目标的类别标签贴到对应的簇上面。通过这种方式可以得到目标的大小、位置和类别等信息。
2.1.2 定位
定位是一台自动车的必备基础,它需要告诉车辆相对于外界环境的精确位置。在城市复杂道路行驶场景下,定位精度要求误差不超过10 cm,如果定位位置偏差过大,那么在城市道路行驶中,车辆轮胎就很容易在行驶过程中擦到路牙,剐蹭到护栏等,还会引发爆胎等车辆驾驶安全问题,严重的甚至会引发交通安全事故。
目前使用最广泛的自动车定位方法是全球定位系统(Global Positioning System,GPS),但GPS的定位精度视器件成本,一般在几十米到几厘米级别之间,精度越高,GPS和惯性导航等传感器的价格也就相对越昂贵。除GPS之外,目前还有基于点云地图(如图5所示)的雷达定位、基于雷达和摄像机融合定位、基于摄像机定位惯性导航系统(Inertial Navigation System,INS)四种定位方法。
基于上述四种方法,HATA A Y[33]提出了一种基于道路特征检测的定位方法。该方法使用环压缩分析和最小修剪方块来分析由多层LIDAR(Velodyne HDL-32E)扫描形成的连续同心测量(或环)之间的距离。同时使用蒙特卡洛定位(Monte Carlo Localization,MCL)算法通过将从多层激光雷达测量中提取的道路特征与网格图匹配来估计汽车姿态,该方法在横向和纵向定位估计误差均小于0.30 m。许谦[34]提出了一种基于感知目标的相对位置和自动驾驶车辆的绝对位置,它是一种基于递推最小二乘法的GIS动态更新算法。把环境感知质点和环境感知区域添加到GIS中,实现基于环境感知信息的GIS动态更新。应用递推最小二乘法,估计环境感知质点位置信息,减小了随机误差。VISWANATHAN A[35]提出了一种自驾车定位方法,该方法将地面全景图像与一年中不同季节拍摄的卫星图像相匹配。他们使用LIDAR数据将自动驾驶汽车中的全景相机捕获的地面图像分割成地面/非地面区域,然后翘曲以获得鸟瞰图。BRUBAKER M A[36]提出了一种基于视觉里程计和路线图的定位方法。他们使用OpenStreetMap,从中提取所有交叉点和所有可行驶道路(表示为分段线性段),将它们连接到感兴趣的区域。然后,他们构建了这个路线图的基于图形的表示,以及汽车如何遍历该图的概率模型。使用这种概率模型和视觉里程测量,他们估计相对于路线图的汽车位移来完成定位。融合GPS/INS的定位方法在GPS信号缺失、微弱的情况下也不容易做到高精度定位,如地下停车场,密集高楼的市区等场景。因此也只能适用于部分场景(例如开阔、信号良好环境下)的自动驾驶定位任务。
此外,地图辅助类定位算法是另一类广泛使用的自动车定位算法,即同步定位与地图构建(Simultaneous Localization And Mapping,SLAM)[37],SLAM的目标即在构建地图的同时使用该地图进行定位,SLAM通过利用传感器(包括视觉、激光雷达等)以及观测到的环境特征,确定当前车辆的位置以及当前观测目标的位置,这是一个利用以往的先验概率分布和当前的观测值来估计当前位置的过程,通常使用的方法包括:贝叶斯滤波器(Bayesian Filter,BF)[38]、卡尔曼滤波(Kalman Filter,KF)[39]以及粒子滤波(Particle Filter,PF)[40]等,这些方法都是基于概率和统计原理的定位技术。
SLAM是机器人定位领域的研究热点,在特定场景下的低速自动驾驶定位的应用过程中,也有较多现实的实例,如园区自动摆渡车、自动清洁扫地车、甚至是扫地机器人、Boston Dynamics制造的机械大狗等场景,都广泛使用了SLAM技术。在此类特殊场景的应用中,并不需要在定位的同时实时建图,只需要事先使用传感器如激光雷达、视觉摄像头等对运行环境区域进行SLAM地图的构建,并将构建好的地图存储下来,在实际定位的时候,使用3D激光雷达的扫描数据和保存在本地的地图进行点云匹配,确定自动车在地图中的具体位置,这类方法被统称为扫描匹配方法(Scan Matching,SM),扫描匹配方法最常见的方法是迭代最近点法(Iterative Closest Point,ICP)[41],该方法基于当前扫描和目标扫描的距离度量来完成点云配准。除此以外,正态分布变换(Normal Distributions Transform,NDT)[42]也是进行点云配准的常用方法,它是基于点云特征直方图来实现配准的一种算法。
2.2 规划
规划是指自动车为了到达某一目的地而做出决策和计划的过程。对于自动驾驶车辆而言,这个过程通常包括从起始地到达目的地,同时要避免障碍物,并且不断优化行车路线轨迹和行为,以保证乘车的安全舒适。规划层通常又被细分为任务规划(Mission Planning,MP)、行为规划(Behavioral Planning,BP)和动作规划(Motion Planning,MP)三层。分层结构设计源于美国2007年举办的DAPRA城市挑战赛,从参赛队伍已发表的论文来看,在比赛中多数参赛队都将自动车的规划模块分为上述三层结构设计。
2.2.1 任务规划
任务规划通常也被称为路径规划或者路由规划(Route Planning,RP),通常情况下在DUC中提供了路由网络定义文件(RNDF)作为先验信息[45],其中包含相对顶层、全局的路径规划,例如起点到终点的路径选择等。
系统通常简化为有向网络图(Directed Graph Network,DGN),该图能够表示道路和道路之间的连接情况、通行规则、道路的路宽等各种信息,这个有向网络图也被称为路网图(Route Network Graph,RNG),如图6所示。
图6中的V表示路口;a表示有向边的权重,包含路径长度、限速等信息。自动车的路径规划问题可转化为在路网图中,为了让车辆达到某个目标地(通常来说是从A地到B地),基于某种方法选取最优(即代价最小)路径的过程,即一个有向图搜索问题。处理该问题的成熟算法有很多,例如迪杰斯特拉算法[44]、A*算法[45]等。ARNAY R[46]使用Dijkstra生成一条全局路径,该路径被扩展用于构建自动驾驶车辆“Verdino”的轨迹。BACHA A[47]使用Dijkstra为自动驾驶汽车构建一条全局路径,以便向停车位导航并倒车。KALA R[48]使用Dijkstra生成全局和本地路径,仅在计算机模拟中进行测试。
另外一种技术是基于插值曲线的技术,通过该插值过程在先前已知的点集的范围内插入新的点集。该技术采用先前已知的一组点(例如,描述道路地图的航路点)生成描绘更平滑路径的新点集。用于自动驾驶汽车的路径规划的最常用的基于内插曲线的技术是样条曲线。HU X使用三次样条曲线进行路径规划。它们都构成了从车道地图获得的一组航路点的中心线,生成一系列参数三次样条,其使用弧长和偏移到中心线来表示可能的路径候选,避免了静态和移动障碍[49]。然后,所有这些候选者都被转换为笛卡尔坐标。考虑到静态安全性、舒适性和动态安全性的总成本,该方法选择最佳路径同时还确定了最佳路径的适当加速度和速度,包括单车道道路和具有静止和移动障碍物的多车道道路。
2.2.2 行为规划
行为规划有时也被称为决策制定(Decision Maker,DM),其主要的任务是根据任务规划的目标和对当前环境的感知(例如:其他车辆、行人的位置和行为,当前的交通规则等),做出下一步自动车需要执行的决策和动作,可以把这一层模块所起的作用理解为车辆的驾驶员的决策系统,驾驶员根据目标和当前的交通情况,决定是跟车还是超车,是停车等行人通过还是绕过行人等。
行为规划实现的一种方法是使用包含大量动作短语的复杂有限状态机(Finite State Machine,FSM)。有限状态机即从一个简单的起始状态出发,根据不同的驾驶场景跳转到不同的动作状态,同时将要执行的动作传递给下层的动作规划层。图7是一个简单的有限状态机。
如图7所示,每个状态都是对车辆动作的一个决策过程,状态和状态之间存在一些跳转条件,某些状态可以自循环(比如上图中的循迹状态和等待状态)。
通过不同复杂程度的有限状态机(FSM)在DUC车辆上做出决定来响应特定的感知驾驶环境来决定行动[50-52]是一种经典的处理过程。部分研究工作试图改善决策结构中的组织,从而管理更大的规则集[53],以保证遵守规则集。虽然有限状态机FSM是目前自动车上采用的主流行为决策方法,但有限状态机FSM仍然存在着很多的局限性:
(1)要实现复杂的行为决策,需要人工设计大量有效的状态;
(2)车辆有可能会碰到有限状态机没有考虑过的状态,因此状态机的扩展也是问题;
(3)如果有限状态机没有设计死锁保护,车辆甚至可能陷入某种死锁状态。
2.2.3 动作规划
通过规划一系列的执行动作以达到某种目的(例如避障)的处理过程被称为动作规划。常用两个指标来考量动作规划算法的性能:计算效率(Computational Efficiency,CE)和完整性(Completeness)。所谓计算效率,即完成一次动作规划的计算处理效率,动作规划算法的计算效率在很大程度上取决于配置空间(Configuration Space,CS)。如果一个动作规划算法能够在问题有解的情况下在有限时间内返回一个解,并且能够在无解的情况下返回无解,那么称该动作规划算法是完整的。
自动车的动作规划也可描述为:在给定一个初始配置(Start Configuration,SC),一个目标配置(Goal Configuration,GC)以及若干的约束条件(Constraint)的情况下,在配置空间中找出一系列的动作到达目标配置。这些动作的执行结果就是将自动车从初始配置转移至目标配置,同时满足约束条件。在自动车这个应用场景中,初始配置通常是自动车的当前状态(当前的位置、速度和角速度等),目标配置则来源于动作规划的上一层——行为规划层,而约束条件则是车辆的运动学限制(最大转角、最大加速度等)。
显然,在高维度的配置空间来进行动作规划,其计算量是非常巨大的,为了确保规划算法的完整性,不得不搜索几乎所有可能路径,这就形成了连续动作规划中的“维度灾难”问题。目前动作规划中解决该问题的核心理念是将连续空间模型转换成离散模型,具体的方法可以归纳为两类:组合规划方法(Combinatorial Planning,CP)和基于采样的规划方法(Sampling-Based Planning,SBP)。
运动规划的组合方法通过连续的配置空间找到路径,而无需借助近似值。由于这个属性,它们可以被称为精确算法。组合方法通过对规划问题建立离散表示来找到完整的解,如在DARPA城市挑战赛(Darpa Urban Challenge)中,CMU的自动车(BOSS)就使用了这类动作规划算法,他们首先使用路径规划器生成备选的路径和目标点,如图8所示,然后通过优化算法选择最优的路径。另一种离散化的方法是网格分解方法(Grid Decomposition Approaches,GDA),在将配置空间网格化以后,使用离散图搜索算法(如A*等)找到一条优化路径。
基于采样的方法由于其概率完整性而被广泛使用,最常见的算法如PRM(Probabilistic Roadmaps)、RRT(Rapidly-Exploring Random Tree)[56]等。在自动车的应用中,状态采样方法需要考虑两个状态的控制约束,同时还需要一个能够有效地查询采样状态和父状态是否可达的方法。通常情况下,运动规划背后的核心思想是通过将连续空间模型转换为离散模型来克服这一挑战[57]。一般情况下存在两种方法解决:(1)组合规划,其构建精确代表该变换的离散表示原始问题;(2)基于抽样的计划,利用碰撞检查模块对从配置空间抽取的样本进行离散搜索。
2.3 控制
控制是将规划转化为行动的执行过程,主要通过向硬件提供必要的输入来执行规划信息,并产生期望的运动。一般情况下,控制器根据硬件的力矩和能量来映射现实世界中的交互。
2.3.1 经典控制
反馈控制是控制领域中最常见的控制器结构,是指通过测量的系统响应并主动补偿与所需行为的任何偏差。经典的反馈控制的最常见形式是比例-积分-微分(Proportional-Integral-Derivative Controller,PID)控制器。PID控制器是过程控制行业中使用最广泛的控制器。PID控制的概念相对简单。它不需要系统模型,控制律基于误差信号。
控制是指自动驾驶车辆精准地执行规划好的动作、路线的能力,及时地给予车辆执行机构合适的油门、方向、刹车信号等,以保障自动车能按预期行驶。控制系统内部会存在测量反馈,控制器通过比较车辆的测量和预期期望来输出相应的控制动作。
自动车反馈控制模块中常用的车辆控制模型为自行车模型[53]。在该模型中,车辆姿态(Pose)是处于一个二维的平面坐标系内,并且可以由车辆所处的位置(position)以及车身和坐标平面的夹角(heading)来完全描述。同时假设车辆前后轮由一个刚性(rigid)不变的轴连接,其中车辆的前轮可以在一定的角度范围内自由转动,而车辆的后轮保持和车身的平行关系不能转动。前轮的转动对应实际车辆控制中方向盘的转动。一般情况下车辆的自行车模型所代表的车辆姿态如图9所示。
由于制动机构的延迟性,在高速运动场景下,会给控制本身带来非常大的延迟影响,而PID由于内部不存在系统模型,故PID不能对延迟建模。为了解决这一问题,基于模型预测的控制方法也被广泛地研究。
2.3.2 模型预测控制
模型预测控制(Model Predictive Control,MPC)[56]是指借助车辆运动模型来预测未来一个时间段的运动,通过不断优化控制参数来拟合这一系列运动的方法,通常来说,模型预测的时间段较短。模型预测控制在工业过程控制应用中取得了巨大成功,主要归功于其简单的概念和处理具有输入约束和非线性的复杂过程模型的能力,模型预测控制由以下四部分组成:
(1)预测模型:基于当前的状态和控制输入来预测未来一段时间内的状态的模型,在自动车系统中,通常是指车辆的运动学/动力学模型。
(2)反馈校正:对模型施加了反馈校正的过程,使预测控制具有很强的抗扰动和克服系统不确定性的能力。
(3)滚动优化:滚动地优化控制序列,以得到和参考轨迹最接近的预测序列。
(4)参考轨迹:即设定的轨迹。
图10是模型预测控制(MPC)的基本结构图,由于模型预测控制基于运动模型进行优化,在PID控制中面临的控制时延问题可以在建立模型时考虑进去,所以基于模型预测控制在自动车控制中具有较高的应用价值。
模型预测控制也已广泛适用于汽车应用[55-56]。整个车辆系统的操作必须在整个操作范围内是最佳的,以便提高燃料经济性,排放和安全性能。然而,在汽车系统中应用模型预测控制器遇到的挑战与过程控制行业面临的挑战不同。汽车中的过程的采样周期是几毫秒,并且由于空间限制,可用的计算资源量受到限制。因此,在推动MPC在汽车行业中的普及应用中,处理器速度和内存的进步以及新算法的开发非常重要,因此在包括牵引力控制、制动和转向、车道保持等方面的使用中具有深远意义[57-60]。
3 结论
自动驾驶技术的发展为交通出行提供新的方式,尤其近年来随视觉处理和机器学习的快速发展,以传感器为基础的感知技术得到了快速发展,相对于视觉处理,在规划和控制领域相对比较缓慢。本文综述了自动驾驶的三个关键技术以及目前的发展状况,并阐述了相关问题。此外也存在很多挑战,技术上,恶略条件下的精准感知还有待完善,例如雨雪天气以及道路施工等场景。法律上,目前只有部分城市出台了关于自动驾驶车辆道路测试的相关指导文件,而且还仅限于测试。不过,随着技术的发展以及法律的完善,自动驾驶会逐渐进入我们的生活中。
参考文献
[1] URMSON C,ANHALT J,BAGNELL D,et.al.Autonomous driving in urban environments:boss and the urban challenge[J].Journal of Field Robotics,2008,25(8):425-466.
[2] WAYMO.We′re building the world′s most experienced driver[EB/OL].[2018-05-22].https://waymo.com/
[3] Uber.Uber:our road to self-driving vehicles[DB/OL].[2018-05-22].https://www.uber.com/blog/our-road-to-self-driving-vehicles.
[4] Tesla.Full self-driving hardware on all cars[EB/OL].[2018-05-22].https://www.tesla.com/autopilot.
文献[5]-[60]略
作者信息:
王金强,黄 航,郅 朋,申泽邦,周庆国
(兰州大学 信息科学与工程学院,甘肃 兰州730000)