据外媒报道,感知软件解决方案供应商Algolux推出了下一代Eos嵌入式感知软件,可帮助开发团队打造高度精确和可扩展的基于视觉的ADAS、自动驾驶汽车、智慧城市、以及交通应用。
(图片来源:Algolux)
扩展后的Eos产品组合结合了深度学习、计算成像和计算机视觉领域的突破,将感知精度提高了3倍,可在所有条件下,尤其是极端情况下,实现稳健操作。为了实现这一目标,Algolux开发了优化的端到端架构和新的AI深度学习框架,大大减少了模型训练的成本和时间,并消除了传感器和处理器的受阻情况。
到2025年,自动驾驶和车队管理市场总额预计将超过1450亿美元,而这一增长依赖精确的感知技术。但是,即使是目前先进的视觉系统也会出现视觉故障,从而导致碰撞等事故。最近,美国汽车协会的研究表明,行人检测等ADAS功能并不可靠,尤其是在夜间或恶劣天气条件下,很容易发生事故,而且设计用于辅助驾驶员的系统实际上也会带来干扰。
目前的视觉架构和监督学习方法的性能受限,并阻碍了新型感知功能的快速上市。由于数据集没有涵盖所有的操作场景,如光线不足和恶劣天气条件,因此提供的结果并不理想。而且由于缺乏可扩展性,并且开发成本较高,这类系统并不实用。
Algolux开发了新的AI深度学习框架,旨在克服这些限制,大大提高了鲁棒性,并且可省数十万美元的训练数据采集、管理和标注成本,同时支持新摄像头的快速配置。该框架使计算机视觉系统的端到端学习成为可能,采用成像与感知的计算协同设计,有效地将其转化为“计算进化”的视觉系统。
该方法允许客户轻松地调整现有数据集,以适应新的系统需求;此外,与现有的训练方法相比,该方法还可减少工作量和成本。在域适应中包含感知和处理管道,可在设计下游计算机视觉网络之前,解决摄像头设计中典型的极端情况。现有的顺序感知堆栈完全依靠使用大型的、具有偏差的数据集的监督学习,以处理边缘情况;而AI框架与感知堆栈一起学习摄像头捕获的数据,从而克服了这些限制。
Eos提供一整套高鲁棒性的感知组件,满足NCAP(欧洲新车评估组织)的要求,并支持L2以上的ADAS、高速公路自动驾驶、自动泊车、L4自动驾驶,以及智能城市应用,如视频安全和车队管理。该产品组合的主要视觉功能包括物体和弱势道路使用者检测与追踪、自由空间和车道检测、交通灯状态和标志识别、传感器遮挡检测、反射消除、多传感器融合等。