IIHS 开头提到,过去传统观念认为,自动驾驶车辆能使车祸成为过去式,带来零伤亡的用路环境,然而 IIHS 研究副总裁 Jessica Cicchino 提到:「自动驾驶汽车最终可能会比人类更能判别危险,但仅凭这一点并不能防止大量的车祸事故。」会有此一论点的原因也在于,美国警方调查美国撞车事故中,每 10 起事故中,有 9 起就是因为驾驶员的失误而造成的。又再进一步分析,其中只有 3 分之 1 的车祸,是由于驾驶介入希望避免自动驾驶车辆错误判断,却因此发生车祸,简而言之也就是系统与人类对于危险判断的差异使然。
也因为此研究结果,IIHS 说明,纵然要让自驾系统如同人类一般的驾驶车辆,确实是个巨大的挑战,但实际上,如果车辆真能如同人类的思维,也只是避免了上述 3 分之 1 的车祸,但仍有 3 分之 2 的车祸,必须仰赖自动驾驶系统能做出更多人类无法执行的驾驶判断,才可能带来零伤亡交通。
为了估计如果将自动驾驶汽车设计为,做出与人类相同的风险决策时,可能继续发生的撞车事故有什么?IIHS 研究人员对《国家机动车撞车因果关系调查》中,5,000 多起警察报告的撞车事件进行了调查。选出来研究的报告有在美国国家公路交通安全管理局 NHTSA(National Highway Traffic Safety Administration)汇整,事件严重性都是至少有一辆车被拖走,且有救护车抵达现场的车祸案件。
在这些案件中,IIHS 将其区分为 5 类:
感知错误:包括诸如驾驶员分心、视线障碍、以及在来得及之前,仍未能识别危险之类的事情。
判断错误:当驾驶员错误判断交通,举例象是错误地估计另一辆车行驶的速度,或对另一位用路人的动向做出错误的预判时,就会发生预测错误。
计划和决定错误:包括因路况而驾驶太快或太慢,在亲自驾驶时,与前方车辆之间的距离太小。
执行错误:错误包括不适当或不正确的回避驾驶,以及其他控制车辆的错误。
失能:涉及由于饮酒或吸毒,医疗问题或驾驶时打瞌睡引起的伤害。
不过,研究人员另外表示,某些碰撞是不可避免的,例如由于车辆故障(如爆胎或车轴损坏)引起的那些碰撞。
至于计划和决定错误,包含决定超速、违规驾驶等等,则占了样本中 40%的车祸,驾驶员的故意决策可能导致撞车的事实,证明驾驶员的偏好有时可能会与自动驾驶车辆的安全优先决策冲突。为了使自动驾驶汽车兑现零伤亡交通,必须将其设计为着眼于安全性,而不是让车辆会做出驾驶员想做的违规行为。
总结来说,IIHS 透过此篇研究要传达的是,过去大家总认为自动驾驶若能像人类一般驾驶,便能带来零伤亡的交通,但这种想法并不精准。严格来说,自动驾驶不是要让每个人有一个专属司机或是分身,而是要把安全行驶摆在优先,举例来说,在交通壅塞或者能见度差的地方,有的驾驶员可能就会想要不断变换车道超车、或者还是不选择放慢速度,但自动驾驶不该会因此有这些行为。所以自动驾驶与其说要像人类一般驾驶,更该说是守规矩的安全驾驶,也才能在若每辆车都是自动驾驶车辆时,都能互相沟通做出危险的预判,与其在即将发生事故时探讨「伦理」议题(即有的会问说要让自驾车设定撞 1 辆车或者是闪避撞到旁边路人),若能让车辆都避免遇上这种事情,何须烦恼这样的两难课题?