天天看点

昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的

作者:东北彪哥儿

昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的俊哥的叫着,但是对业务的了解深度、代码的算法也好、代码的产量也好,我照比人家的水平差远了。

期间就聊到一个话题,就是自动驾驶的解决方案。因为他一直在做国内的业务,所以基本上解决方案就是毫米波雷达、激光雷达、超声波雷达加上摄像头这种多传感器融合感知技术。而我说起特斯拉的纯视觉自动驾驶解决方案,只是通过摄像头来实现自动驾驶也是非常强大的。他马上就反驳我说,那雨雪天气、大雾天气款式不同的雷达能够实现穿透进行3D建模。那么你单纯靠摄像头你怎么进行3D建模?孙建也是给我问没电了,但是你说Tesla Vision系统用强大的算法来实现自动驾驶,但是你说特斯拉威震系统具体怎么个理论实现3D建模确实是我的知识盲区。今天有空我就开始恶补了一下。明白了之后就赶紧掏出来给大伙分享一下。

由于看我视频的受众都是跟我一样的平头老百姓,所以我就尽量说一些俗话,想看更深层次的解读。我把链接放在评论区,感兴趣的可以瞅一瞅。言归正传,麻四科的核心思想就是通过机器来模拟人类驾驶对物体的识别,基本上也还是AI人工智能那一套。人类幼崽就好比说这个也不知道什么是粑粑,能吃还是不能吃,也是通过大量训练才能得到这种能力。

在这块再补充一下人工智能的三大基本要素:数据、算法、算力。不太明白可以翻看我以前的视频。总之人和机器一样不是下生就知道什么能吃什么不能吃的,都是需要慢慢的感受然后形成习惯。只是这种习惯人类都习以为常了,感觉是与生俱来的。机器是需要慢慢学习的。

关于机器学习重点说一下深度学习的算法。因为摄像头采集的彩色的2D图片,提取图片信息,已有的图片,提取算法已经很成熟了,搞就完了。

不过车辆在高速行驶当中,周围的车辆和路况是瞬息万变,怎么通过图像来识别物体的距离,这确实是纯视觉自动驾驶的一大薄弱环节。

提一个名词叫做深度估计网络,其实就是估算测距,主要是通过视差预测来得出的双目摄像头采集的图像(计算深度)。可以通过分别采集的两张图片的视觉差来进行预测深度。

再解释一下,首先在行驶当中采集T时刻的照片,通过深度估计卷肌网络神经CNN,得出一个T时刻的深度图片,然后拿着深度图片去合成前后两张图,再拿两个时刻的真正的原图来进行对比训练。特斯拉通过30亿英里的疯狂训练,才能让预期预测达到一个相当精准的效果。同时车辆也会去记忆,智能记忆人类在这种情况下的操作,反复将视觉内容和操作进行匹配,类似于人类在识别到车距之后进行跟车、超车变道这些操作。

再回过头来说雨雪天气或者是晚上这种视线不好的情况下,同样也是通过多摄像头进行采集,采集大量数据分析匹配,做出最后的决定。就好比人在大雾大雪天一一样,看不清路况,但如果有两个人四只眼睛一起看,是不是就大大的增加了路况的识别成功率。如果是4个人8只眼睛,当然在极端情况下几只眼它也不好使,这也正常。多传感器融合,就好比是看见很重要,主要是靠摸,摸着什么就是什么,纯视觉感知。

就好比是只是拿眼看,看到什么就是什么,拿眼看肯定有它的劣势,但不能说完全不能用。为什么要发展纯视觉自动驾驶?因为便宜特斯拉的8个摄像头加在一起的成本,也没有一个激光雷达的成本高。

为什么只有特斯拉在发展纯视觉自动驾驶?因为只有特斯拉才拥有着长达十几年数以百万计的客户,全球超过30亿英里的投喂数据,才能投危出这么高智商的这个Tesla Vision系统,这一期。

就说到这,下一期聊聊酒桌上的另一个话题,就是国产大飞机C919,拜拜。

昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的
昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的
昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的
昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的
昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的
昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的
昨天跟俩哥们喝酒,其中一个兄弟也是就职国内某著名汽车软件服务公司,一直在做北汽极狐长安汽车的自动驾驶。虽然对我一声一声的

继续阅读