人大人科创
张江-硅谷创新创业平台

人工智能领域简报 2018年第25期 自动驾驶技术遭遇瓶颈

从表面上看,今天似乎比以往任何时候都更接近完全自动驾驶。


2015年,埃隆·马斯克预测到2018年,会有完全自动驾驶的特斯拉;谷歌也是如此。 Delphi和MobileEye的4级系统目前定于2019年,同年Nutonomy计划在新加坡街头部署数千辆无人驾驶出租车。通用汽车将在2019年使完全自动驾驶汽车投产,没有方向盘或司机介入。这些预测背后有实实在在的资金支撑,押注软件能够赶上炒作的假设。


Waymo已经在亚利桑那州有限的公共道路上测试汽车。特斯拉和许多其他模仿者已经出售了有限形式的自动驾驶仪Autopilot,如果发生任何意外情况,司机就会进行干预。发生过一些事故,有些是致命的车祸,但只要系统不断改进,逻辑是,在需要干预的情况我们不必等太久。


但实现完全自动驾驶汽车的梦想可能比我们意识到的更远。人工智能专家越来越担心,在自动驾驶系统能够可靠地避免事故之前,可能需要数年甚至数十年。随着自我训练的系统应对现实世界的混乱,像纽约大学的加里·马库斯这样的专家正准备在预期中进行痛苦的重新校准,这种纠正有时被称为“人工智能寒冬”。这种延迟可能会给那些依靠自驾车技术的公司带来灾难性后果,让整整一代人无法获得完全的自动驾驶。


很容易理解为什么汽车公司对自动驾驶态度乐观。在过去十年中,深度学习 —— 一种使用分层机器学习算法从海量数据集中提取结构化信息的方法 —— 已经在人工智能和技术行业中取得了几乎无法想象的进展。它支持谷歌搜索,Facebook新闻流,会话式语音到文本算法以及围棋冠军Go-playing系统。在互联网之外,我们使用深度学习来检测地震,预测心脏病,并标记摄像头上的可疑行为,以及无数其他本来不可能的创新。


1


但深度学习需要大量的训练数据才能正常工作,几乎包含算法将遇到的每个场景。例如,Google Images等系统非常善于识别动物,只要有训练数据来向它们展示每种动物的样子。 马库斯将这种任务描述为“插值”,对所有标记为“豹猫”的图像进行调查,并确定新图片是否属于该组。


工程师可以在数据来自何处以及如何构建数据时获得创造性,但对给定算法可达到的范围设置了严格的限制。相同的算法无法识别豹猫,除非它看到成千上万的豹猫的照片 —— 即使它看到了家猫和美洲虎的照片,并且知道豹猫介于两者之间。这个过程称为“概括”,需要一套不同的技能。


长期以来,研究人员认为他们可以通过正确的算法提高泛化技能,但最近的研究表明,传统的深度学习在概括时比我们想象的更糟糕。一项研究发现,传统的深度学习系统甚至难以在视频的不同帧上进行概括,根据背景中的微小变化将同一北极熊标记为狒狒、猫鼬或黄鼠狼。由于每个分类基于数百个因素的总和,即使是图片的微小变化也可以完全改变系统的判断,其他研究人员充分利用对抗数据集。


马库斯指出聊天机器人热潮是最近炒作泛化问题的例子。 “我们在2015年就承诺推出聊天机器人。”他说,“但它们没有任何好处,因为它不仅仅是收集数据的问题。”当你在网上与一个人交谈时,你不仅仅想要他们重新讨论早期的对话。你希望他们能回应你所说的话,利用更广泛的会话技巧来产生对你独有的回应。深度学习无法制作那种聊天机器人。一旦最初的炒作消退,公司就对他们的聊天机器人项目失去了信心,而且几乎没有人在积极开发中。


这让特斯拉和其他自动驾驶公司面临一个可怕的问题:自动驾驶汽车会越来越好,比如图像搜索、语音识别,以及其他人工智能的成功故事吗?还是会遇到像聊天机器人这样的泛化问题?自动驾驶是插值问题还是泛化问题?驾驶真是难以预测吗?


现在可能还为时过早。 “无人驾驶汽车就像一个我们不知道答案的科学实验。”马库斯说。我们以前从未有过这个级别的自动驾驶,所以我们不知道它是什么类型的任务。在某种程度上,它是关于识别熟悉的对象和遵循规则,现有技术应该完成任务。但马库斯担心,在事故多发的情况下驾驶可能比行业想承认的要复杂得多。 “在某种程度上,令人惊讶的新事物发生了,这对于深度学习来说并不是一件好事。”


2


我们获得的实验数据来自公共事故报告,每个报告都提供了一些不寻常的问题。在2016年,一场致命的车祸导致Model S车辆全速撞上白色拖拉机拖车的尾部,由于拖车的底盘高度很高,加上刺眼阳光的反射而混淆。 3月份,Uber一辆无人驾驶测试车撞死一名女性,当时是在晚上,这名女性推着自行车突然出现在人行横道。根据美国国家运输安全委员会的报告,每次更新其预测,Uber的软件错误地将该女性识别为一个未知物体,然后是一辆车,最后才是一辆自行车。在加利福尼亚州的一次撞车事故中,由于仍不清楚的原因,Model X在撞击之前转向障碍并加速。


每次事故似乎都是一个极端案例,工程师无法提前做出预测。但几乎所有的车祸都涉及某种不可预见的情况,如果没有一般的推广能力,自动驾驶汽车将不得不面对这些情景中的每一个,就好像这是第一次。结果将是一连串的侥幸事故,随着时间的推移,这些事故不会变得不那么常见或者不那么危险。


Drive.AI创始人吴恩达是前百度高管,也是该行业最著名的拥护者之一,他认为,与培训旁观者预测自驾车行为相比,问题不在于建立一个完美的驾驶系统。换句话说,我们可以为汽车提供安全的道路,而不是相反。作为一个不可预测的案例,采访中问及是否认为现代系统可以处理玩弹簧单高跷的行人,即使它们以前从未见过。 “我认为许多AV团队可以在人行横道上处理踩着弹簧单高跷的行人。” 吴恩达表示,“话虽如此,但在高速公路中间玩弹弹簧单高跷是非常危险的。”


“我们应该与政府合作,要求人们守法和体谅,而不是建立人工智能来解决弹簧单高跷的问题。”吴恩达说,“安全不仅仅与人工智能技术的质量有关。”


深度学习不是唯一的人工智能技术,公司已经在探索替代方案。虽然技术在行业中受到严密保护(仅仅看看Waymo最近针对Uber的诉讼),但许多公司已经转向基于规则的AI,这是一种较老的技术,可以让工程师将特定的行为或逻辑硬编码到另外的自导系统中。它不具备通过研究数据来编写自己的行为的能力,而这正是深度学习如此令人兴奋的原因,但它会让公司避免一些深度学习的局限性。但由于深度学习技术仍然深刻地影响了感知的基本任务,因此很难说工程师如何成功隔离潜在的错误。


作为Lyft董事会成员的风险资本家Ann Miura-Ko认为,问题的一部分是对自动驾驶汽车本身的高度期望,将任何未达到完全自动驾驶的事情归类为失败。 “期望它们从0跳到5级是预期的不匹配,而不是技术的失败。” Miura-Ko表示,“我认为所有这些微观改进都是实现完全自动驾驶的非凡之处。”


不过,目前还不清楚自动驾驶汽车可以在自动情况下保持多长时间。像特斯拉的自动驾驶仪Autopilot这样的半自动产品足够智能,可以处理大多数情况,但如果发生任何过于不可预测的事情,还是需要人为干预。当出现问题时,很难知道汽车或司机是否应该受到责备。对于一些评论家来说,即使错误很难完全归咎于机器,这种人机混合可能比人类驾驶员更不安全。兰德公司的一项研究估计,自动驾驶汽车必须在没有死亡事故下行驶2.75亿英里,才能证明它们和人类驾驶员一样安全。与特斯拉自动驾驶仪相关的首次死亡事件发生在大约1.3亿英里的范围内,远远低于标准。


但是,通过深入学习,汽车如何看待物体并做决定应对,提高事故率可能比看起来更难。 “这不是一个被孤立的问题。”杜克大学教授玛丽·卡明斯(Mary Cummings)表示,他指的是今年早些时候发生的Uber事故导致一名行人遇难。 “感知-决策周期通常是联系在一起的,就像撞死行人的事故一样。基于感知的模糊性做出了决定,并且紧急制动被关闭,因为它从传感器得到太多的错误警报。”


致命车祸事故促使Uber暂停了今年夏季的自动驾驶测试工作,这对计划进行测试的其他公司来说是一个不祥之兆。在整个行业中,公司正在竞相争取更多数据来解决问题,假设拥有最多里程的公司将构建最强大的系统。但在公司看到数据问题的地方,马库斯看到了更难解决的问题。 “他们只是使用他们所拥有的技术,希望它能起作用。”马库斯说,“他们依靠大数据,因为这是他们拥有的拐杖,但没有任何证据表明达到我们所需的精确度。”