kaiyun官方注册
您所在的位置: 首页> 人工智能> 业界动态> 无人驾驶的实现难点在哪里

无人驾驶的实现难点在哪里

2020-05-05
来源:21ic

美国Medium科技板块总编StevenLevy表示:“我很难相信,无人驾驶汽车的大规模使用会在近期到来。我们现在也许到了95%,但最后的5%将会是漫长的路途。”事实确实如此。然而就现在,竟然有人用辅助驾驶系统让汽车在高速路上自己行动,当然,这种行为艺术是要付出代价的。

如果你问那些特斯拉Model S车主买他爱车的原因是什么,小编认为一定会有人回答:当然是“自动驾驶啦”,下面这位车主应该就是这样想的。

5月27日,一名欧洲车主正驾驶着他刚买的特斯拉Model S汽车在瑞士的高速公路上行驶,还开启了“自动驾驶功能”(高速路上都敢做这样尝试,活那么大也真不容易)。Model S汽车前面有一辆汽车变道,避让一辆停在高速公路上的货车,这辆货车几乎占据了半个车道。Model S似乎也已意识到了它前面的车辆开始变道,但它并没有发现停在路上的货车。结果,Model S轻微加速地撞向了货车。

终于有借口发个朋友圈了,于是车主赶紧在YouTube上发消息,责怪特斯拉汽车没有发现停泊的货车以及没有启动自动刹车系统。

紧接着就有个评论员在YouTube上指出,你个臭不要脸的,使用手册上都说了这种情况需要司机注意,你不看手册你赖谁,你赖谁。车主一翻手册,我去还真有“警告:交通感知巡航控制系统可能不会为避让静止的车辆而刹车或减速,尤其是在这种情况下:你正在以超过每小时80公里的速度行驶,在你前面的汽车变道后,你面前突然出现一辆静止的车辆或物体。司机要始终注意前方的道路,随时准备好采取紧急纠正措施。完全依赖交通感知巡航控制系统可能会导致严重的伤亡事故发生。”车主这才说:“其实我也有责任。。.。。.”

2222.png

当然这也不是特斯拉推卸责任啦,无人驾驶一共有四个阶段:驾驶辅助系统、部分自动化系统、高度自动化系统和完全自动化系统,而特斯拉的交通感知巡航控制系统仅在无人驾驶的第一个阶段,属于驾驶辅助系统,那你要拿驾驶辅助系统当完全自动化系统来开,还是在高速上,那只能送你八个字:勇气可嘉,智商感人。

无人驾驶可是个老概念了,上世纪70年代,美国等国家就已经开始着手研究,中国也在80年代紧随其后,发展至今几十年过去了,无人驾驶技术也发展到了第三阶段,然而接下来的路似乎还很长。美国Medium科技板块总编StevenLevy表示:“我很难相信,无人驾驶汽车的大规模使用会在近期到来。我们现在也许到了95%,但最后的5%将会是漫长的路途。”

那除了法律、伦理和道路等问题,无人驾驶技术主要有那些难点呢?

传感系统

不得不承认,现在无人车能出现很大程度上依赖传感器的进步。其实早在 80 年代美国就通过磁钉导航完成过很多无人驾驶的实验。他们在地下埋上磁钉,通过寻找磁钉的方式可以完成高速的巡航、并道、超车等一些列的实验。很明显,这种成本太高,只能作为实验。

后来传感器技术突飞猛进,却依然很难达标。比如天气环境恶劣时将严重影响传感器的精度,或者车辆前方有障碍,要判断障碍物是运动的还是静止的,至于车是停下来还是绕过去,可通过人工势场算法。这部分主要的难度是传感器识别障碍,在车辆运动的前提下,确定障碍的运动状态。也就是说你要在运动的坐标系下,计算另一个物体相对静坐标系的速度,并作出判断。

GPS也是个问题。汽车行驶总要经过一些楼宇隧道吧,如果GPS无法到达,就需要里程计 + 陀螺仪,俗称惯性导航单元。这套系统的原理就是:花钱越多,有效时间越久。如果要能在没有 GPS 的情况下坚持 20 分钟,呵呵,要花3 个帕萨特。

原因是里程计、陀螺仪都存在累积误差。要注意,误差是累计的,也就是说上一时刻是 0.5m 的误差,下一时刻指定大于 0.5m。因此要尽可能约束累积误差,使其数量级很低,那么就要上光纤陀螺。因为电子级的陀螺通常达不到这个精度要求,不知道挠性陀螺行不行,但是估计挠性陀螺和光纤陀螺造价差不多。

感知系统

感知系统主要包括雷达和摄像头。雷达又分为激光雷达、毫米波雷达、超声波雷达等类型。激光雷达又可以分为单线雷达、双线雷达、多线雷达等。

雷达的优势在于测算的精度非常高,探测距离远,当然成本也不低。但也有缺点,比如:激光雷达对雨雾的穿透能力受到限制、对黑颜色的汽车反射率有限;毫米波雷达对动物体反射不敏感;超声波雷达的感知距离与频率受限;摄像头本身靠可见光成像,在雨雾天、黑夜的灵敏度有所下降。

360 度多线激光雷达,用于检测周围障碍物,无人车需要能够感知周围环境,又不能像人一样单纯用眼睛完成,于是这玩意可以返回周围障碍物的距离,误差毫米级。今天价值 3 个帕萨特。iot101君认为以后帕萨特可以作为一个计量单位使用,动不动就几个帕萨特。

摄像头也分单目和双目,当然双目的要好一点啦。双目的原理与人眼相似。人眼能够感知物体的远近,是由于两只眼睛对同一个物体呈现的图像存在差异,或称“视差”。目标距离越远,视差越小;反之,视差越大。所以说双目系统对目标物体距离感知是一种绝对的测量,而非估算。

双目系统成本比较低,而且没有识别率的限制,因为从原理上无需先进行识别再进行测算,而是对所有障碍物直接进行测量,无需维护样本数据库,因为对于双目没有样本的概念。双目系统的缺点在于:计算量非常大,对计算单元的性能要求非常高,这使得产品化、小型化的难度较大。所以在芯片或FPGA上解决双目的计算问题难度比较大。

国际上使用双目的研究机构或厂商,绝大多数是使用服务器来进行图像处理与计算的,也有部分将算法进行简化后,使用FPGA进行处理,这就使效果受到较大程度影响,存在很多噪点与空洞,这对后续的计算不利,存在安全风险。

识别交通标识,如限速牌、红绿灯。这些通过视觉系统完成,难点主要在实时性和鲁棒性。要离线处理这些交通标志是很简单的,但是在无人车上需要能在有限的时间里识别出来,并且考虑道路中可能有的光线变化、遮挡等问题。

人工智能

要说真正让汽车难以在短期内实现无人驾驶的难题,应该是其在“人工智能”上的差距。谷歌在向美国相关部门提供的一份报告显示,在之前的14个月测试中,其无人驾驶汽车总共“主动脱离无人驾驶状态”272次,除了“主动脱离无人驾驶状态之外”,还有69次驾驶员选择取消无人驾驶状态的情况。谷歌表示,如果没有驾驶员的介入,无人驾驶车可能会发生13次交通碰撞事故。

谷歌提供的报告进一步表示,在上述272次脱离无人驾驶的状态中,因为“感知差异”因素造成的脱离次数为119次。何为“感知差异”?说白了就是汽车对当时情况的感觉。比如此前谷歌自动驾驶项目测试组曾邀请两名来自《纽约时报》的记者进行试乘,当时谷歌车辆即将经过一个红绿灯路口,系统检测到对面车道有车辆正以较快的速度行驶。为了避免可能出现的意外,谷歌车辆猛向右边车道变道,但实际上对面的车辆仅仅是在尝试能否通过红绿灯而已,且最终也在信号灯变红前完全停了下来。

特斯拉搭载的号称具有强大学习能力的OTA系统也同样被曝出有认知缺陷,比如其暂时不能识别红绿灯系统。如果经过红灯时前方恰好有车,那么特斯拉可以刹停,但是一旦前方没车,特斯拉并不能做到自动停车。

据知名零部件公司博世和德尔福提交的针对自动驾驶的报告,在很多情况下,驾驶员都必须对自动驾驶的车辆进行干预,以保证安全,而这些情况包括糟糕的车道标线、过于明亮的太阳光导致摄像头失灵、建筑区以及其他驾驶员的无规律行为等。

沃尔沃在去年的时候曾经将其在瑞典哥德堡测试的名为“Driveme”的自动驾驶项目带到北京进行路试,在这一过程中,一辆具备自动驾驶功能的沃尔沃V60就因为系统里并没有涵盖某一因为别的驾驶员的违规行为的数据,而导致系统死机,最后不得不选择人工驾驶。

显然,机器智能在这种“感知”上尚无法与人做到同样的智能,更何况全自动驾驶了,所以,真正的无人驾驶汽车,真得至少再等上五年。


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。
Baidu
map