kaiyun官方注册
您所在的位置: 首页> 其他> 业界动态> Mobileye CEO 定义了全新的安全标准,它真的靠谱吗?

Mobileye CEO 定义了全新的安全标准,它真的靠谱吗?

2018-05-14
关键词: Mobileye 自动驾驶

  Uber自动驾驶测试车引发致命事故后,许多人开始对自动驾驶车辆产生焦虑。这样的担心可以理解,毕竟一个巨大的铁块高速运行时一旦出现问题,造成的伤害可能相当巨大。Shashua 想跑在前面,预先阻止车辆出现异常情况。

  Shashua 的主题演讲主要围绕几个问题展开,包括“我们如何解决安全问题?”和“一旦事故发生,怎样不再让公众感觉自动驾驶汽车是洪水猛兽?”

  作为一位工程师,他在解决这些问题时也使用了工程师思维,即直接拆分成不同部分,为每个部分找到解决方案,最后再对它们进行整合。

  自动驾驶汽车要树立自信

  他做的第一件事是用一个有说服力的案例解释了“为什么自动驾驶汽车行驶时不能畏首畏尾。”Shashua 先拿Mobileye家乡耶路撒冷的交通说事,不过这种情况我们大家都遇见过,即一条小路汇入一条主路。如果小路上的车辆在并入主路时畏畏缩缩,可能就会造成更多问题,而且会被后方车辆用嘈杂的喇叭问候全家。因此,司机在处理这种情况时必须对自己有自信,换到自动驾驶汽车上也是一个道理,毕竟“没有城市能接受天天引发堵车的自动驾驶汽车。”

  因此,从逻辑上来说,自动驾驶汽车要在驾驶风格上接近人类,一定程度的自信必不可少。接受了这一概念,你就得抛弃现有的安全洁癖(自动驾驶汽车必须 100% 安全)。Shashua 指出,你需要的是一个安全保证,这个保证上不能写“绝不会发生事故”,而是要写“这辆车永远不会引发事故”。

  与此同时,他还主张一点,那就是你必须解决自动驾驶汽车“经济上的稳定性”,这也是汽车制造商不会成为被告的金科玉律。毕竟如果每次发生事故厂商就陷入到底谁该负责的争论,恐怕倒闭会成为它们的唯一宿命。

  随后,Shashua 提出一个假设:自动驾驶汽车要想超过人类驾驶员的平均水平,到底要达到什么样的安全等级?提出问题后他很快就给出了答案,在 Shashua 看来,这根红线应该是比人类的平均水平高上 1000 倍。这样的标准恐怕没人会说不了吧?毕竟你会得到一个驾驶技巧比肩 Lewis Hamilton(F1 世界冠军),耐心上可与会计师一战的超级电脑。

  随后,他又在演讲台上做起了算数。从统计数据上来看,现在车辆每行驶 100 万英里,就会有一名司机丧命。从时间上来看则是每小时道路上会出现一起伤亡事故。这也就意味着,想要达到要求的安全标准(1000 倍),自动驾驶汽车要将上面两个数据分别提升到 10 亿小时和 30 亿英里。很明显,这样的标准未来 10 年内恐怕难以实现,我们所说的 1000 倍真的能这样算吗?

  数据≠安全

  Shashua 提到这些数字是为了提前给我们敲响警钟。“制定一个标准然后去实现”是工程师们的惯用手法,过去它是百用百灵,不过,它也是一种“稻草人逻辑”(偷换概念的论证方法,即一个人把另一个人的论证曲解了,然后通过驳倒曲解的论证来声称原版也不成立),毕竟现在可没有厂商敢说自动驾驶汽车在上市前必须经过 10 亿小时的驾驶测试。

  从这次演讲中大家也发现,Shashua 在回应各路批评和暗示时,可是非常擅用这套逻辑。

  Shashua 举上面的例子是为了告诉我们,安全标准不应该被数据所驱动。一家公司根本没必要拿行驶里程来证明自家产品是否合格,虽然现在各家公司都痴迷于积累测试里程,但这些里程是为测试系统服务的,它不应该成为车辆安全与否的证据。

  此外,Shashua 还想传递出一个理念,那就是未来几年随着自动驾驶测试规模的扩大,各种与其相关的事故还会层出不穷,只要事故不是自动驾驶汽车引发的,我们就不能直接将数据与安全性挂钩。在他看来这是一种危险且短视的做法。不过,在大众看来,这样的想法可是有些吓人。

  冗余

  Shashua 随后主要谈了安全和冗余的意义,他指出车身上安装的摄像头阵列能为车辆提供全方位的视觉感知,可作为自动驾驶汽车的主传感器,至于雷达和 LiDAR,则可提供“真正的冗余”,因为它们基于不同的系统。

  当然,Shashua 的论点明显是有偏向的,毕竟 Mobileye 的技术和专利主要就是基于摄像头技术的。后来,他还补充称,要想覆盖所有的偶然性,每台自动驾驶汽车都至少要搭载 12 颗摄像头。

  自动驾驶行业的其它领军企业则有完全不同的观点。就拿通用来说,CTO Jon Lauckner 就表示,自己依然坚信 LiDAR 是自动驾驶汽车的主干传感器。Lauckner 得出这样的结论主要是因为 LiDAR “看到”的是摄像头“看不到”的 3D 图像,而且 LiDAR 当了主力后,就可以少装几个摄像头了。

  至于其它公司,有些则走上了融合路径,它们摄像头和 LiDAR 都用,获得了良好的加成效应。

  在下一个议题中,Shashua 则提到了另一个论点:“从来没人定义过到底什么是危险场景和在这样的场景下到底该做什么。”

  不过,鉴于我们讨论的是机器,它们天生就要遵守规则,因此业界必须未雨绸缪,对一些关键事项进行定义。

  预测

  随后 Shashua 又解释称,他的意思是一辆自动驾驶汽车根本没必要去预测其它车辆的动向。“你无须预测其它车辆准备做什么。”他大胆地说道。

  这样的论断不但在逻辑上发生了跳跃,还忽视了一个现实,那就是当下的自动驾驶汽车都会不间断地预测其它车辆动向,尤其是周边车辆速度,这个步骤其实在 Mobileye 的软件上也有体现。

  同时,这一观点也与随后上台的英特尔实验室的发言产生了冲突,他们在演讲中花了大量篇幅讨论概率性计算,这个步骤就是在用计算机处理传感器数据以预测未来可能发生的情况。

  举例子也很简单,一个皮球蹦蹦跳跳穿过某条街道,它的路径肯定会与一辆经过的自动驾驶汽车交汇。借助概率性计算,系统必须能“看到”这个皮球并预测出下一步会不会有孩子冲过来捡球。这种类型的提前思考能力代表着未来。

  不过在 Shashua 看来,这种预测的“生成方式”会带来过多信息,影响计算机效能。他更偏向于采用“区别对待的方式”,让系统只专注于特定目标,比如“超过那辆车”。

  后来,为了证明自己观点的正确性,Shashua 放出了一段视频,Mobileye 的自动驾驶汽车驶入了他提到的复杂路口,这辆车相当大胆且自信地在车流中穿行,它居然一路从最右车道变到了最左车道,确实相当强悍。

  Mobileye CEO 定义了全新的安全标准,它真的靠谱吗?

1.jpg

  “霸占”车道

  从这段视频中我们也可看出,Mobileye 的测试车在变道时相当“霸道”,它甚至做出了许多坏司机的“流氓”操作。在从中间道向左侧变道时,这辆测试车直接霸占两条车道数秒钟,让其它车辆根本没办法超车。

  Shashua 则非常赞赏测试车的这种行为,他认为车辆用这几秒清楚地向其它车辆传达了自己的意图。

  不过,他的独特思考也引来了大量质疑。演讲结束后第一个问题就有与会者问道,“在不同的城市,你如何应对不同的驾驶风格呢?”

  这确实是个大问题,如果自动驾驶汽车以耶路撒冷的驾驶风格在洛杉矶行驶,恐怕很快就会激怒其他司机,他们会做出激烈反应,别忘了,天使之城的司机们非常擅长在你的盲区中开车。这就意味着,Mobileye 的测试车如果意识不到这一点,很容易就会造成事故,部署的车辆越多,事故发生几率就越大。

  原本,与会者认为 Shashua 会讨论下自动驾驶汽车的学习能力,结果这位 Mobileye CEO 却直接回应说:“这不是个大问题,车辆的反应时间会因为部署区域的不同进行相应调整,而且车辆的自信程度也会有差异。”随后 Shashua 就终止了该问题的讨论。

  碰撞

  接着又有人问了他一个关键问题:“如果 Mobileye 的自动驾驶汽车感知到了一个无法避免的车祸,它会怎么做?它要怎么做决策?它会牺牲自己来避免车祸吗?它会为了救行人而撞向另一辆车吗?”像上次一样,Shashua 听到问题后根本没思考就回答道,“我们称其为伦理困境,RSS 会移除任何伦理困境。”

  这里所说的 RSS 便是 Mobileye 的“责任感知安全”(Responsibility-Sensitive Safety)模型,他们还准备将其打造成全球标准,与行业共同讨论自动驾驶汽车安全和事故的相关问题。

  Shashua 表示,在这种模型下,它们的自动驾驶汽车能采取一切行动来避免事故发生,而其它一切事物都“非常主观”。

  Shashua 的理念确实让人担心,因为每个政策失误都是被最初的错误理念带偏的。就像最近备受关注的 Facebook 隐私门,扎克伯格显然对他人的隐私和个人数据毫不关心,每次受到质疑,Facebook 都会用加强隐私管控的错觉来迷惑大众。

  除非社会思潮发生根本性变化,否则扎克伯格不会改变自己的既定策略,因此未来 Facebook 恐怕会一错再错。

  把 Facebook 那一套用在自动驾驶上?

  一旦 Mobileye 玩上了 Facebook 那一套,出了车祸他们就能耀武扬威地宣布:“这不是我们的错,我们遵守了自己的 RSS 规范。”

  在演讲和问答环节结束后,Shashua 又准备了一场圆桌会议。不过,这场会议结束后,大家的担忧更重了。他长篇大论地讲述了在业内搭建一个标准化安全模型的重要性,而在 Shashua 看来,Mobileye 的 RSS 就是最佳选项。此外,由于现在 Mobileye 的大老板是英特尔,因此他们绝对有能力将自己的安全模型推广到全行业。

  在圆桌会议上,也有人问到了特斯拉和 Uber 车祸的相关问题,Shashua 在回应时只是表示业内有必要提前定义“到底什么是危险的”,然后利用传感器数据证明“在感应上车辆没有犯错”。也就是说,只要车辆按编好的程序执行任务,它们对事故就没有责任。这样的逻辑确实不好理解。

  在圆桌会议上,Shashua 一再强调,自动驾驶汽车的安全标准中有“不引发事故”一条就足够了。也就是说,他直接把阿西莫夫的机器人三原则缩减到了一原则。

  那么,假设 Mobileye 的自动驾驶汽车为了避免事故在高速路上停下来呢?后续会不会造成其他车辆的追尾?RSS 模型工作的时间线呢?车辆真的能立即进行重新设定,然后快速行驶起来吗?

  回答这个问题时 Shashua 显得有些杂乱无章,只是一直在重复与不引发事故相关的话题,但事实上他这属于答非所问。

  答非所问

  不光这个问题,后续的有关地图精度、V2V 系统和算法的重要性问题上,Shashua 都熟练地用稻草人逻辑避开。

  举例来说,有人问道 Mobileye 现有地图的精度和它们的众包计划(用 Mobileye 在其它车辆上的摄像头来搭建地图),他却显得非常不高兴,声称想得到真正精确的地图必须在每条道路中植入磁铁,但谁又愿意花这个钱呢?很明显,Shashua 又答非所问了。

  危险

  这种“我就是对的”的工程师思维经常会在技术突破时出现,我们见过太多例子,如果将这种技术突破应用于较大场景,其危险性相当骇人。

  也许你会说,无所谓啦,反正测试车队只是在耶路撒冷跑。不过别忘了,Mobileye 的测试车下个月就要进军加州(而且还是城市交通复杂度非常高的旧金山),而 2021 年它们就要实现商用。


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。
Baidu
map