微软(Microsoft)和麻省理工学院(MIT)合作开发了一个项目,旨在修复导致无人驾驶汽车出错的所谓虚拟“盲点”。道路,尤其是与人类司机共享的道路,是不可预测的地方。训练自动驾驶汽车适应各种可能的情况是一项艰巨的任务。
微软(Microsoft)和麻省理工学院(MIT)开发的人工智能,将人类在给定场景下的行为与无人驾驶汽车自身的人工智能进行了比较。当人类的决策更优时,车辆的行为会根据未来类似的情况进行更新。
报告作者Ramya Ramakrishnan表示:
这个模型帮助自主系统更好地了解他们不知道的东西。
很多时候,当这些系统被部署时,他们经过训练的模拟与现实环境不匹配,他们可能会犯错误,比如发生事故。 我们的想法是用人类以一种安全的方式,在模拟和现实世界之间架起一座桥梁,这样我们就可以减少一些错误。 例如,如果一辆紧急车辆正在接近,那么人类驾驶员应该知道,如果安全的话,应该让他们通过。这些情况会因环境而变得复杂。
在乡村公路上,让车辆通过可能意味着要挤到草地上。你,或者说紧急服务部门,最不希望看到的就是无人驾驶汽车在所有的乡村道路上都行驶相同的路线,然后突然转向悬崖边缘。
人类既可以在现实世界中“展示”正确的方法,也可以在汽车的行为不正确的情况下,坐在驾驶座上进行“纠正”。一份情况清单连同其行为是否被认为是可接受或不可接受的标签一起汇编。
研究人员已经确保无人驾驶汽车AI不会认为自己的行为是百分之百安全的,即使到目前为止的结果是这样。使用Dawid-Skene机器学习算法,人工智能使用概率计算来发现模式,并确定某样东西是否真的安全,或者仍然存在出错的可能性。
我们还没有达到可以部署这项技术的阶段。到目前为止,科学家们只在视频游戏中对其进行了测试。然而,它提供了很多承诺,帮助确保无人驾驶汽车的人工智能有一天能够安全应对所有情况。