成员自1984年以来

了解更多

AIA - 推进的视觉+成像已转变为促进自动化协会,愿景+成像,机器人,运动控制和工业AI产业的领先全球自动化贸易188jinbaobo org协会。

内容提交:

行业:
N/A

应用:
自主移动性自主移动性

视觉系统进入自动驾驶汽车

发表于04/24/2018.

作者:温·哈丁,特约编辑

尽管消费者还需要几年的时间才能购买自动驾驶汽车,但汽车制造商已经在展示无人驾驶汽车的能力。正如盲点监控、前方碰撞预警和车道偏离预警系统已经出现在最新一代的汽车中一样,全自动驾驶汽车的承诺将得到兑现。

据美国国家公路交通安全管理局(国家公路交通安全管理局),独立运行的自动车辆,没有人司机,将始终取代需要完全啮合的驾驶员的那些。通过在2016年采用SAE国际标准J3016,NHTSA经过验证的SAE六个级别的自动/自主驾驶(表1)。

表1:2016年采用SAE国际标准J3016,NHTSA经过验证SAE的六个级别的自动/自主驾驶。(由SAE International提供)

意法半导体公司技术营销经理Uwe Voelzke表示:“尽管没有一家汽车制造商在生产上达到level3或更高水平,但有几家制造商已经生产出了示范车辆。”“一些国家正在研究可能允许使用3级车辆。预计将在2020/2021年实现。”无论什么时间框架,似乎可以肯定的是,要实现全自动汽车的承诺,需要大量不同类型的传感器。在自动驾驶汽车上,摄像头、雷达、声纳、全球定位系统(GPS)和光探测和测距(LIDAR)将产生大量数据。

“相机将产生20至60兆字节,雷达向上10千字节,10至100千字节的声纳。GPS将以50千字节运行,LIDAR将在10至70兆字节之间。因此,每个自主车辆每天将产生大约4岁的数据,“英特尔首席执行官Brian Krzanich说。与用于捕获此数据的系统一样重要是从数据处理和提取信息所需的计算基础架构。

传感器类型
“如今,大多数先进的驾驶辅助系统(ADAS)都是独立运行的,几乎不交换信息。后视镜、环视系统、雷达和前置摄像头都有各自的用途。”虽然每种传感器类型都有其自身的局限性,但系统使用数据融合(结合来自多个传感器的信息)来生成更准确的环境表示(图1)。

图1:虽然每个传感器类型具有自己的限制,但系统使用数据融合(组合来自多个传感器的信息)来产生更准确的环境表示。(由德州仪器提供)

当然,每个传感器类型的处理要求都是多样的。正如机器视觉系统中使用的智能摄像机执行低电平图像处理任务作为平场校正和拜耳插值,汽车应用中使用的摄像机也执行异构处理。虽然摄像机和雷达,声纳,GPS和LIDAR系统都可以执行自己的特定低级处理功能,但融合所生成的数据需要更复杂的算法。

“汽车,出租车和货运代表价值10万亿美元的市场,”NVIDIA的创始人兼首席执行官Jensen Huang说。难道的是,相机和传感器公司正在展览大型汽车制造商,往往宣传他们在自动车辆设计中的成功。例如,Vislab的研究人员配备了一种称为焖带有四个激光扫描仪,GPS和惯性测量单元(IMU)的原型车辆。

图2:通过VisLab开发了原型自主车辆,从FLIR集成成像解决方案摄像机辅助前方障碍物检测,相交估计,停车空间检测,盲点监视和后方障碍物检测。FLIR的礼貌对于前进障碍/车辆检测,车道检测和交通标志识别,来自FLIR集成成像解决方案的四个龙蝇2相机安装在挡风玻璃的上部后面。两个具有彩色传感器,两个具有灰度传感器。两个龙蝇2相机安装在汽车的身体后面,侧向停车和交通交叉检测。额外的两台萤火虫相机集成到后视镜中以检测超车车辆,另外两个龙蝇2相机监控附近的障碍物(图2)。

认识到ADA中采用的更显不同技术提供了更好的实现4级和5级能力的方法,FLIR还提供基于其玻色子热摄像机核心的摄像机。该系统允许通过黑暗,雾,眩光和烟雾识别对象。

与FLIR一样,Foresight Autonomous Holdings也看到了将可见、立体和红外(IR)成像结合起来的价值。今年1月,在内华达州拉斯维加斯举行的消费电子展(CES)上,Foresight展示了它的QuadSight视觉系统。该系统使用两对立体红外和可见光摄像机,在完全黑暗、下雨、雾霾、雾和眩光等照明条件下实现近100%的障碍物检测,几乎没有错误警报。

图3:CES的与会者有机会乘坐Maker Navya在市场上推出第一个机器化生产驾驶室。该公司的Autonat Cab在展会上运送了600多人。激光雷达和雷达
在CES与会者还有机会乘坐什么壶NAVYA调用了市场上首款机器人化生产的驾驶室。该公司的AUTONOM CAB(图3)运送600余人围绕着表演。该车辆包括不小于10个LIDAR传感器,六个相机,四个雷达,两个全球导航卫星系统天线,和一个IMU。

而从Velodyne VLP激光雷达提供360度的周边视觉,从法雷奥SCALA激光雷达可以用于距离可达200​​米。与多个传感器,至少三重冗余跨所有功能在系统中提供。

短、中、远程雷达模块对全自动驾驶也至关重要,因为它们在不同的环境条件下(如雨水、灰尘和阳光)都很耐用。“雷达传感器可分为短程雷达,射程为0.2至30米;30- 80米范围内的中程雷达;以及80至200米射程的远程雷达,”NXP Semiconductors汽车微控制器和处理器研发总监Ali Osman Ors说。

“长程雷达[LRR]是在自适应巡航控制[ACC]和高速公路自动紧急制动系统[AEBS]所使用的实际传感器。仅使用LRR用于ACC和AEBS当前部署的系统具有局限性,如检测摩托车,并且可以与一个摄像机传感器配对,以提供附加的检测中,”说厄尔斯。为了满足这些需求,恩智浦提供了一系列雷达传感和处理,视觉处理,以及传感器融合产品的ADAS市场。

多样性和冗余
“多样性和冗余”是一个重大的主题时,NVIDIA的詹森黄自主汽车技术评价,公司的最新成果在今年的CES。Huang unveiled the company’s DRIVE Xavier autonomous machine processor system-on-a-chip, comprising a custom eight-core CPU, a 512-core Volta GPU, a deep-learning accelerator, computer vision accelerators, and high dynamic range (HDR) video processors, which he said could help autonomous vehicles reach level 4. “However, for the Level 5 market,” says Huang, “we have created the NVIDIA DRIVE Pegasus robotaxi AI computer, which is powered by two such processors.”

结合深度学习,传感器融合,和环绕视野,NVIDIA的驱动平台的设计是围绕冗余系统架构,并内置支持ASIL d,汽车功能安全的最高水平。

“但处理器只是第一步,”黄说。“我们一直在构建自动驾驶汽车的整个软件堆栈。”到目前为止,该公司拥有DriveWorks SDK,其中包含用于检测、定位、规划和可视化的参考应用程序、工具和库模块。该公司目前正在构建一个地图感知组件,为自动驾驶创建一个可扩展的众包地图平台。它将使一批自动驾驶汽车能够协同创建和使用地图数据。

已经,百度和ZF Friedrichshafen AG选择了NVIDIA Drive Xavier在中国的产品开发,而NVIDIA和UBER技术将介绍,据Huang称,介绍,伴侣建立自行车Ubers。

为了确保自动驾驶汽车在检测到故障时仍能正常工作,该公司创建了ISO 26262 ASIL D安全兼容的NVIDIA Drive功能架构,涵盖了流程、处理器设计、算法、系统设计和所使用的验证方法。“这太先进了,”黄说,“造飞机的人开始敲我们的门了!”

可以理解,模拟由自主车辆遇到的每一个可能的环境是不可能的,该公司还开发了一个模拟环境,允许,例如,设计人员在汽车的虚拟设计,然后模拟及道路照明条件在这种环境下移动相机(图4)。

八两百万汽车事故和大约一百万死亡所造成的交通事故每年成本社会$ 500十亿。随着5级ADAS的每辆汽车的问世,这一数字可能在理论上被淘汰,同时提供交通堵塞的减少和降低运输成本的好处。

生命科学的愿景这种内容是生命科学策划收集的视野的一部分。了解有关生命科学愿景的更多信息,点击这里