具体性能上,这套系统已经能够实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米,在离开高线数旋转式激光雷达后也依然能够在城市道路上自动驾驶。
从这些描述来看,百度的这套纯视觉自动驾驶系统的确值得肯定。不过在车业杂谈看来,这套系统依然不能做到绝对的安全,此话怎讲呢?
众所周知,摄像头对于环境的感知,始终会受到天气、光线强度等因素的影响。在雨雪天气下,摄像头极有可能被雨水遮盖导致其无法正常探测车身周围环境,同样在强光照射下,摄像头的成像效果也将大打折扣。在这些干扰下,汽车所搭载的摄像头对于环境的感知准确与否着实是个未知数,那么它又如何能保证自动驾驶汽车的安全性呢?
另一方面,摄像头成像相比雷达成像来讲,对于大数据的要求更加严苛。摄像头的二维图像相比三维点云数据来说,会更难挖掘其中信息。简单来讲就是说,哪怕摄像头已经很好的捕捉到了图像信息,但因为角度等问题的影响,汽车未能在数据库中找到对应的物体与之匹配,它依然无法做出相应的应对。这就好比动物看到汽车,即便知道它的存在却也不避让,直至命丧轮下一样,不能正确识别周遭环境的无人驾驶汽车也存在极大的安全隐患。
车业杂谈并不是在危言耸听、诋毁百度,就以这套系统的对标产品——Mobileye视觉感知系统来说,安全问题一样存在。
特斯拉所搭载的Autopilot系统,就是以Mobileye的技术开发而来,它采用的是摄像头+毫米波雷达的感知方式,由于毫米波雷达的精度与探测距离问题,在高速行驶过程中特斯拉主要还是依靠摄像头进行感知探测。因此从特斯拉的碰撞事故来看,我们就能判断以摄像头为主导的自动驾驶感知系统是否安全。
显而易见,不论是2016年1月在国内发生的特斯拉高速公路追尾清扫车事件,还是美国特斯拉在十字路口撞上左转卡车事件,都是因为特斯拉未能将摄像头拍摄到的物体识别出来,进而造成了事故的发生。
由此可见,单纯依靠视觉设备进行无人驾驶汽车的感知是不靠谱的,必须要辅以激光雷达等其他感知方式,来确保无人驾驶汽车的安全性。这一点其实百度自己也有所表示。
在会上,百度方面明确提出不会放弃多传感器融合的感知系统,他们认为在摄像头、激光雷达等多传感器的协同作用下,能够最大概率的保障感知结果的准确性和完备性,缺一不可。
而同时百度方面还说道,目前之所以会推出Apollo Lite这套纯视觉感知方案,正是要不断打磨视觉传感技术,以此来反哺百度所坚持的多传感器融合的无人驾驶感知方案。
种种证据都表示,单纯依靠摄像头是不能保障无人驾驶的安全性的,因此百度的这套纯视觉感知系统也不是绝对的安全。百度能够如实宣传这套系统,车业杂谈认为是对消费者尽责的表现,十分良心。但问题在于,若日后如果哪家车企采用了这套系统,又将如何宣传呢?朋友们还得多长个心眼。