盖世汽车讯 自动驾驶汽车激光雷达传感器的工作原理是发送红外光脉冲,并测量它们从物体反射回来所需的时间,从而创建3D点地图,作为汽车周围环境的图像。
(图片来源:MIT Computer Science & Artificial Intelligence Lab)
激光雷达的缺点之一是其3D数据量巨大,而且是计算密集型的。例如,典型的64通道传感器每秒产生超过200万个点。与2D图像相比,在进行推断时,由于额外的空间维度,最先进的3D模型需要多14倍的计算,因此,为了有效地导航,工程师必须首先将数据分解为2D,但此种方法会导致大量信息丢失。
据外媒报道,麻省理工学院的团队一直在研究使用机器学习的自动驾驶系统,旨在无需进行自定义手动调节。研究人员开发的新的端到端框架仅使用原始的3D点云数据和低分辨率GPS地图,就能自动导航,类似于目前智能手机中的功能。
由于涉及到为计算机提供大量丰富的感知信息来学习如何驾驶,因此根据原始激光雷达数据进行端到端学习是一个计算密集型的过程。为此,该团队必须设计新的深度学习组件,更有效地利用现代GPU(图形处理单元)硬件,以便实时控制车辆。
博士生Zhijian Liu表示,“我们从算法和系统方面优化了我们的解决方案,与现有的3D激光雷达方法相比,达到了大约9倍的累积加速。”测试显示,新系统减少了人类驾驶员从机器上接管控制权的频率,甚至可以承受严重的传感器故障。
人们开车穿过隧道,然后出现在阳光下,一瞬间,人眼可能会因为强光而看不清。自动驾驶汽车摄像头,以及天气条件较差时,自动驾驶系统的激光雷达传感器都会出现类似的问题。针对这一问题,麻省理工学院团队的系统可以估计其对任何给定预测的确定程度,因此在制定决策时,可以权衡该预测。(在从隧道出来的情况下,该系统基本上会无视由于传感器数据不准确而导致的不可信的预测。)
该团队称其方法为“混合证据融合”,因为它将不同的控制预测融合在一起,从而得出运动规划选项。麻省理工学院教授Daniela Rus称,“根据模型的不确定性,融合控制预测,系统可以适应意外事件。”
在很多方面,该系统本身是麻省理工学院此前的三个项目的融合:
MapLite:手动调整框架,用于在没有高清3D地图的情况下驾驶;
variational end-to-end navigation可变端到端导航:机器学习系统,使用人类驾驶数据进行训练,学习如何从零开始导航;
SPVNAS:高效的3D深度学习解决方案,优化了神经架构和推理库。
研究人员Alexander Amini表示,“我们利用无地图驾驶的优势,并将其与端到端机器学习相结合,因此不需要专业程序员手动调整系统。”下一步,该团队计划继续扩展该系统,增加现实世界的复杂性,包括不利的天气条件,以及与其他车辆的动态交互。