Mobileye创始人:无人驾驶汽车如何自证清白?

2017-11-01  |  By Faye  |  In 新闻

近期,英特尔官网发布消息称,英特尔和旗下子公司 Mobileye 共同推出了一套称为「责任敏感安全」(Responsibility-Sensitive Safety,RSS)的无人驾驶汽车规则系统,这套系统会保证无人驾驶汽车的行车合乎规范。

近期,英特尔官网发布消息称,英特尔和旗下子公司 Mobileye 共同推出了一套称为「责任敏感安全」(Responsibility-Sensitive Safety,RSS)的无人驾驶汽车规则系统,这套系统会保证无人驾驶汽车的行车合乎规范。

据彭博社报道,RSS 系统对美国国家公路交通安全管理局(National Highway Traffic Safety Administration,NHTSA)有所记载的几乎所有交通事故进行了数学建模,从而计算出无人驾驶汽车可采用的量化规则系统。

RSS 系统的主要开发者是 Mobileye 创始人阿姆农·沙书亚(Amnon Shashua)博士和他的搭档沙伊·沙莱夫-施瓦茨(Shai Shalev-Shwartz)博士,两位专家 10 月 18 日在以色列国家新闻网(Israel National News)联名发表了文章《Solving the Driverless Car Safety Challenge with Certainty》,用比较通俗的语言介绍了这套系统的背景和意义。

需要说明的是,按照两位专家在上下文中的意思,下文中的无人驾驶汽车应该是指 SAE Level 5 的自动驾驶汽车,即由系统完成所有操作,人只是乘客。

无人驾驶汽车如何自证清白?

图 1  Mobileye 创始人 Amnon Shashua 博士

今天交通法规都围绕着一个关键要素——驾驶员,而且驾照、车险、交通法规等所有制度环节都假定「汽车是在人的操控下运行的」,即汽车是有人驾驶的。而对于无人驾驶汽车,在现有的制度下,会引发一系列现实的困境,例如:

  • 在交通事故中,如何判定哪辆车是事故责任方?
  • 应该向车主、制造商或者汽车本身提供驾照和车险吗?
  • 更重要的是,自动驾驶和有人驾驶的汽车如何安全地共存?

在全社会一起接受无人驾驶汽车之前,我们必须明确地回答这些以及更多相关问题。人们已经对无人驾驶汽车表示了担忧,如果不能确认它的确比有人驾驶汽车更安全,人们就不可能接受无人驾驶汽车。我们已经注意到,NHTSA 在对于涉及驾驶辅助技术肇事的交通事故的调查前后进行了几个月。而在调查期间,由于事故原因都不明,导致消费者对此类产品十分谨慎。

  • 注:指特斯拉在 2016 年 5 月 7 日发生的那次交通事故:美国佛罗里达州的一位特斯拉车主在使用 Autopilot 时发生车祸,导致车主死亡;NHTSA 对此事故的调查时间长达 7 个多月。

随着汽车自身而不是驾驶员承担越来越多的驾驶任务,这个问题将变得更加严峻。由人为失误所引发的车祸导致每年超过一百万人死亡,而相比之下,无人驾驶可能只造成了少数几次致命事故。但由于事故责任无法明确,导致这项技术延迟甚至永远无法推广应用,从而无法发挥其在减少交通事故伤亡方面的潜力。

各国政府都在逐渐意识到处理这些问题的必要性,美国一直主动着手制定自动驾驶汽车法规和新的「美国交通部自动驾驶汽车指南」(USDOT Automated Vehicle Guidelines),而产业方可以成为重要的合作伙伴。

下一个重要的步骤是合作制定能够准确地划分交通事故责任的行业标准,从而在与有人驾驶汽车的碰撞不可避免时能够证明无人驾驶汽车安全性。清晰的事故责任标准至关重要,因为厂家可以通过设计无人驾驶汽车的决策软件(即驾驶策略)来遵循这些标准。在这种情况下,无人驾驶汽车的决策系统不可能是事故原因。

图 2 Shai Shalev-Shwartz、Amnon Shashua 等发表的关于 RSS 模型的 30 页学术论文

通过题为《安全可扩展的无人驾驶汽车的形式化模型》(On a Formal Model of Safe and Scalable Self-Driving Cars)的白皮书,我们提出了「责任敏感安全」模型(Responsibility-Sensitive Safety,RSS),可以提供参考。

RSS 是一种形式化的数学模型,可以确保无人驾驶汽车将以负责的方式来运行。它将人类的「责任」和「谨慎」概念转化为具体的、可测量的参数,并定义了「安全状态」(Safe State)——无论其它车辆如何操作,无人驾驶汽车都不可能引发事故。

划分事故责任的能力是关键。无人驾驶汽车和世界上最好的司机一样,都不能阻止由不可控因素所导致的事故的发生。但是,最负责、最警惕、最谨慎的司机不太可能由于自己的过错引发事故,尤其是如果他们有像无人驾驶汽车那样 360 度的视角和快如闪电的反应时间。由此,RSS 模型能以一种「避免让无人驾驶汽车进入违反交通法规的危险情境」的方式形式化上述直观认识。

无人驾驶汽车如何自证清白?

图 3  RSS 模型中的跟车场景,易发生追尾事故

我们以常见的追尾事故说明 RSS 模型的工作原理。当两辆车在同一车道上前后行驶时,且后车撞到前车,后车司机就视为过错方。这种事故发生的原因,通常是由于后车没有保持安全的跟随车距,由此在前车突然刹车时,后车不能及时停下。

但是,如果后车是采用 RSS 模型的无人驾驶汽车,这种事故将永远不会发生。根据全面的驾驶场景和责任规则,用软件评估全部行为,无人驾驶汽车将不断地计算安全车距,使自身保持安全状态。

采用像 RSS 这样的模型,无人驾驶汽车的传感器系统将实时收集、维护所有与自身行为相关的数据,就像飞机上安装的「黑匣子」。在涉及到无人驾驶汽车的事故中,这些收集的关键数据可以快速地、无可争辩地明确事故责任,当然这只在有清晰的责任定义(definitions of fault)可用于数据比对时有效。行业标准组织和监管机构可以正式定义这样的安全模型,以建立清晰的责任定义,这些定义反过来可以转化成相关保险政策和交通法规。

毫无疑问,机器驾驶员会比人类驾驶员做的更好。然而,如果我们不能就安全标准达成一致,无人驾驶汽车将永远无法发挥其减少伤亡的潜能,这是非常现实的风险。我们认为,无人驾驶汽车可以并且应该被控制在操作安全性(operational safety)的标准内,这种标准要比人类现在展示的驾驶水平要高许多。而现在正是开发这些标准的时候。

文章来源:厚势(微信公众号:iHoushi)

 



返回VehicleTrend车势首页

本文转载自其他媒体,目的在于传播更多有用信息,转载内容并不代表VehicleTrend车势(www.vehicle-trend.cn)立场。