首页 > 科技 > 互联网 >

产业升级新动能 —— 看AI数据如何推动驾驶的智慧变革

发布时间:2020-06-04 10:18:48来源:
为了充分展示前沿科技在产业智能化转型中的需求和经历,Testin云测推出了【产业升级源动力】系列文章,从业务实践和行业场景出发,解析如何借助前沿科技推动产业转型和业务创新。

从1886年的卡尔·弗里德里希·本茨发明出汽车开始,拓宽了人们的出行半径,加速了人流与物流的流动速度。到1939年,第一款配备自动变速器的汽车问世,解放了驾驶员的右手(左舵驾驶,右舵驾驶则解放左手),再到世纪交替时,ACC自适应巡航解放了驾驶员的双脚。而现在的智能驾驶技术问世,正在使智能驾驶从梦想驶入现实,逐步的进入“大撒把”的时代。

智能驾驶似乎无时无刻的不在释放和挑战我们的想象,在智能化方面,5G技术将给“人、车、路、网、云”协同发展带来机遇,智能汽车发展成为互联网生态和服务集成平台。未来,智能汽车很可能是继手机之后的第二大互联生态和服务集成,智能化终将改变汽车的定义,在完全智能驾驶成为现实之后,智能汽车将成为移动的智能空间和场景生态服务体验终端,成为工作、生活、娱乐的新载体。

以上说的这一切,都不难实现,梦想已经在路上。但想象总是美好的,现实呢?

路漫漫其修远兮

人们对智能汽车的定义是什么呢?战略中是这样解释的——“智能汽车是指通过搭载先进传感器等装置,运用人工智能等新技术,具有智能驾驶功能,逐步成为智能移动空间和应用终端的新一代汽车。智能汽车通常又称为智能网联汽车,智能驾驶汽车等”。

简单来说,需要汽车具备“智力”,即通过感知、规划、决策等过程,完成汽车的控制,这一过程,可以归纳为“人工智能”。然而,这更像是一个结果,想要让汽车本身的算法做到处理更多、更复杂的场景,背后就需要有海量准确、高质的真实数据做支撑。

不能否认,现在有些L3功能的量产车,在一些低速车领域,比如园区,物流,矿场也会投放一些无人驾驶的车,但这本身还是在某些场景帮助人,而不是取代驾驶员。

上文中提到的“L3”是什么呢?其实是智能驾驶的级别划分,目前一共分为5级,那么智能驾驶中的L0-L5 ,分别指什么?

目前,国际上有两套关于汽车智能化的分级,获得业界较高认可,一个美国国家高速公路管理局NHSTA,另一个是SAE汽车工程师协会。两个标准的划分方式极为相近,都是根据汽车的智能化程度划分L0到L5共六个级别。

L0 ——“人工驾驶”

指的是没有任何智能辅助驾驶功能的人工驾驶方式。在智能化大行其道的今天,这样的配置看上去似乎很有些不可思议,而事实上,今天的汽车还有不少都停留在这一阶段。

L1——“辅助驾驶”

指的是至少拥有一项以上驾驶辅助功能的车辆,比如LDW车道偏离预警系统、FCW前碰预警系统等,因此L1也被称之为“驾驶员辅助阶段”。目前,市场上的绝大多数汽车都配有辅助驾驶系统,虽然智能化程度有限,却也能减轻驾驶员驾驶疲劳程度,减少事故的发生。

L2——“部分自动驾驶”

指的是能实现部分自动化的车辆,目前已经能实现L2的量产。部分自动驾驶同时具备纵向和横向控制功能。当今大多数高级驾驶员辅助系统均属于L2级,在这个阶段,虽然机器可以独立完成一些组合行驶需求,但驾驶员仍需要将双手双脚预备在方向盘及制动踏板上随时待命。

L3——“条件自动驾驶”

指的是由系统实现监控和驾驶的人机共驾。到了L3级别的智能驾驶技术,人工智能可以独立完成几乎全部的驾驶操作,当然驾驶员仍需要保持注意力集中,以便在某些汽车不能实现自动驾驶的情况下,接管车辆控制权。

L4——“高度自动驾驶”

智能驾驶到了L4阶段,当面对紧急状况时,车辆能够实现自动处理,自行解决所有的特殊情况,避免因驾驶者未能及时接管车辆而造成的交通事故。只有在极其特殊的情况下,才需要人工操作。

L5——“完全自动驾驶”

达到L5的车辆可以实现无限制的任意点对点无人驾驶模式,车辆可以在完全不需要驾驶员介入的情况下来进行所有的驾驶操作,驾驶员也可以将注意力放在其他的方面比如工作或是休息。

只有保障安全了,无人驾驶才能有环境基础,之后的大面积落地,就看成本和法规的事情了。换句话说:什么时候机器可以预判危险了,什么时候无人驾驶就可以应用了

我们相信,当达到L5时,智能驾驶给予驾驶者更多的选择,把原本开车过程中“丢失的时光”重新交还给驾驶者。在高度无人驾驶阶段,驾车者状态完全放松,而非时刻保持警惕状态。

关于驾驶的信息化,我们要做的、能做的还有很多,AI是否能帮助我们实现未来智能驾驶的美好场景,且看下文慢慢来讲。

好的数据才会有好的AI

作为智能驾驶汽车的“眼睛”,信息的获取至关重要,在人工智能时代,AI数据越多、越好,得到的模型最终效果就最佳,从而提升ADAS产品性能。

针对传感器采集到的大量交通数据进行分类、标注,然后上传给智能驾驶系统进一步学习,提高智能驾驶的精确度,例如针对前向避撞、车道保持、车道偏离等功能,可以通过大数据迭代算法模型,提升产品的可靠性和用户体验。

数据标注就是人工智能学习的教材,它存在的意义便是让机器理解、认识世界。那么在实现智能驾驶的这一过程中,需要哪些方面的数据呢?我们可以简单的将标注场景分为车内和车外。

在车内场景中,疲劳监测、动作识别、场景光线等一切会在车内发生的场景,以及在车外环境中更复杂的障碍物、道路、天气、地点、车道线、路标,以及一些长尾场景诸如闯红灯车辆、横穿马路的行人、路边违章停靠的车辆等所有可能会涉及的场景,都需要对应的如连续帧标注、2D图像框选、图像分割等不同的标注方式。

2D图像框选/图像分割标注

上述这些只是智能驾驶中涉及到摄像头的数据,多为图片类数据的标注。由于对安全的严苛要求,当前的智能驾驶所需数据需求,正向着多模态的方向发展。所谓多模态,即是对多维时间、空间、环境数据的感知与融合。

虽然现在智能驾驶很火,但是不得不注意到现在机器在推理方面的能力是远不如人,只是在感知范围和决策速度上超过了人。另外,在不适用激光雷达做感知冗余的情况下,单纯依靠毫米波和摄像头还不能保证无人驾驶情况下百分之百安全。

在汽车的感知部分不仅只有摄像头,还有激光雷达、毫米波雷达、超声波雷达等多种方式共同组成,而这些感知方式都需要对应的数据标注。

物体参考坐标系与雷达坐标系之间的关系

以激光雷达为例,高性能激光雷达可以实现200米范围内,精度高达厘米级的3D场景扫描重现。它生成的3D点云数据通过标注后,可以助力智能驾驶模型的训练。

为了真正实现智能驾驶,单独依靠2D图像类标注,是不足以达到真正的智能驾驶。我们需要在2D的基础上,增加3D点云标注。

2D更多的是为了识别物体是什么,而3D更多的是为了判断物体所占空间的容积,以及坐标系下的位置计算,这就促成了智能驾驶中的“融合识别”。

蔚来的智能驾驶布局之道

多传感器融合可显著提高系统的冗余度和容错性,从而保证决策的快速性和正确性,是无人驾驶的必然趋势。各种传感器性能各有优劣,在不同的应用场景里都可以发挥独特的优势,仅依靠单一或少数传感器难以完成无人驾驶的使命。纵观目前整个行业,在提供智能驾驶解决方案的企业中,大部分目标是全智能计程车的技术领域,而蔚来更关注能够开发出更可靠、可持续、长期、安全的智能驾驶系统。

云测数据2D/3D融合标注

云测数据作为Testin云测旗下数据标注品牌,基于行业先进的标注工具和丰富的标注经验,对机动车、障碍物等目标物进行3D框选、对雷达图进行语义分割,同时还可以对2D、3D多传感器融合的数据进行同时标注,实现视觉和雷达的数据感知,帮助汽车更好的感知道路场景,为智能驾驶技术的发展保驾护航。

智能驾驶,会不会是我们想象中的样子,目前还不得而知。但我们能够确定的是,在信息技术日新月异的今天,数据采集/标注能够为智能驾驶做的还远远不止这些。相信在不久的将来,智能驾驶最终会延续自动变速箱和ACC自适应巡航,从释放双手和双脚,到释放眼睛和大脑,将不再是奢望,它将带领我们,进入全新的出行时代。

未来,Testin云测将会更长久的关注智能驾驶行业,以前瞻性的视角和实践来推动智能驾驶行业的长久发展。

powered by 云测数据

(责编: jingzhu)

版权声明:凡注明“来源:京珠科技”的所有作品,版权归京珠科技所有。任何媒体转载、摘编、引用,须注明来源京珠科技和署著作者名,否则将追究相关法律责任。