会员自1984年以来

了解更多

AIA - 推进的视觉+成像已转变为促进自动化协会,愿景+成像,机器人,运动控制和工业AI产业的领先全球自动化贸易188jinbaobo org协会。

内容提交:

行业:
N / A.

应用:
仿真/ 3D建模仿真/ 3D建模

数据融合有助于自主平台制作3D地图更高效

发表于04/30/2018.

 | By: Winn Hardin, Contributing Editor - AIA

无论是设计自主汽车,移动机器人,无人机还是未来派导航飞机,开发人员都必须采用多个传感器,将车辆本地化在三维空间中。根据系统,可以使用不同类型的图像传感器来完成此任务。例如,自动车辆可以使用LIDAR生成周围区域的3D点云。虽然LIDAR系统的数据对于大距离准确,但数据

图1:μINS-2从惯性感比美国四分之一小及用途的传感器数据和GPS数据,以提供位置估计。
图1:μINS-2从惯性感比美国四分之一小及用途的传感器数据和GPS数据,以提供位置估计。

产生稀疏,通常必须进行的近距离感应和安全使用传统的免费机器视觉解决方案。

根据系统的应用需求,激光雷达传感器可以用于3D或2D环境地图。Velodyne激光雷达的HDL-64E提供3D 360°水平和26.9°垂直视场(FOV),而SICK的TiM571激光雷达扫描测距仪提供2D 220°视场。

2D激光扫描器通常用于结合摄像机系统的自主车辆的FOV内定位的对象和它们的距离。对于这些应用,不同类型的照相系统可以包括单个(单)相机,立体相机,或照相机捕捉RGB和深度(RGB-d)的图像。如果使用单照相机系统,3D图像必须基于相机的运动来计算,和与该移动相关联的任何错误将具有所得到的3D图像上产生有害影响。

RGB-D传感器包括RGB摄像机和IR结构化光投影仪和传感器。例如,来自枕部的结构传感器与便携式片剂如iPad一起处理,其处理RGB图像采集,而附件提供了用于捕获深度信息的结构光保护器。

另外,预先校准的立体相机,如FLIR系统公司的Bumblebee,也提供类似的功能。通过识别左右图像的特征差异,立体视觉摄像机确定深度。虽然立体相机在短距离时产生密集的数据集,但它们往往缺乏范围。因此,许多3D测绘系统同时使用激光雷达和立体视觉成像系统来获取更准确的数据。


对于自主车多个传感器
为了估计的车辆,机器人,或在空间无人驾驶飞机的位置,设计人员通常依赖于层状感测网络的包括多于只是机器视觉和激光雷达。设计者通常使用的加速度计,陀螺仪和磁强计的组合,并且车载惯性测量单元(IMU),以测量加速度和角速度。当然,这些“航位推算”系统需要知道的出发点和绝对位置保持安全的轨道上。在许多设计中,这是使用具有大约5米的精确度或差分GPS,使用固定的基于地面的参考站,以改善这样的精度到约10cm的全球定位系统(GPS)来执行。

图2:在生物经济研究,在3D点云的形式的地图的挪威研究所使用的同步定位和地图创建(SLAM)算法用于林业车辆度量属性的和本地化如树干直径与坐标单树。
图2:在生物经济研究,在3D点云的形式的地图的挪威研究所使用的同步定位和地图创建(SLAM)算法用于林业车辆度量属性的和本地化如树干直径与坐标单树。

由于使用了微电子机械系统(MEMS)技术,这些IMU/GPS系统的尺寸大大减小,这使得它们在自主飞机的设计中非常有用。例如,来自惯性传感的μINS-2比美国的1 / 4还要小,它使用传感器数据和GPS数据来提供位置估计(图1)。

在移动机器人和汽车等地面自动驾驶车辆中,来自imu的数据可以与来自车轮编码器的数据一起使用,以确定车辆的位置。


扣篮
在已知位置与运动跟踪组合以自主导航环境等不同的沙漠到仓库内部的过程中,车辆必须构建环境地图的同时在地图内同时定位车辆。要做到这一点,就必须进行同时定位和映射(SLAM)。

SLAM由第一提取界标或特征从由2D或3D激光雷达,声纳,或3D摄像机系统,然后通过从不同的传感器网络中的数据匹配确认特征位置生成的点群数据的。SLAM导航系统然后估计未来何处的地标将基于移动平台的当前位置之前,使用GPS,里程表更新车辆的当前位置,和/或INS数据。

如今,Slam或其变体,用于映射环境的许多应用程序。示例包括用于生成森林地图的移动机器人,用于物料处理应用程序的自主移动机器人(AMRS),以及用于环境意识的无人机。

映射应用比比皆是
在移动机器人的发展中测量树干的直径,Marek Pierzcha?挪威生物经济研究所和他的

图3:获取机器人的货运机器人采用LIDAR扫描范围查找器,IMU和轮式编码器,以产生基于Web的GUI以限制机器人的运动并定义充电站的位置。
图3:获取机器人的货运机器人采用LIDAR扫描范围查找器,IMU和轮式编码器,以产生基于Web的GUI以限制机器人的运动并定义充电站的位置。

同事开发了一个移动平台,它结合了许多传感器来执行森林的自动化3D映射。这些包括Velodyne VLP-16 LIDAR,Flir Bumblebee立体声视觉相机,用于记录立体图像,舷内IMU和GPS接口到A

PIXHAWK微控制器用于全局参考。

采用机器人操作系统的Ubuntu 14.04下运行,该系统产生的3D点云,其然后使用SLAM算法用于林业车辆的定位的形式的地图。点云还计算诸如树干直径属性和单个树的坐标(图2)。

同时,取机器人使用自动抄表系统的仓储和国内物流应用。在过去,安装自动导向车是时候

消耗和昂贵以来,专用轨道需要安装在仓库仓库的仓库楼层,以便跟随这些车辆。现在,不需要专用路径的AMR可以自动生成仓库的地图。

图4:通过森林的250米无人机轨迹(红色)的自上而下视图,其中3D地图覆盖在灰色点中,由直接稀疏的内径术Slam产生。

图4:通过森林的250米无人机轨迹(红色)的自上而下视图,其中3D地图覆盖在灰色点中,由直接稀疏的内径术Slam产生。

为了实现这一目标,Fetch Robotics公司的货运机器人采用了SICK公司的TiM571激光雷达扫描测距仪,该测距仪使用飞行时间测量来定位25米以外的物体。从激光雷达得到的极位置坐标、距离和角度被传输到系统的主机CPU,并与IMU的数据相结合,生成一个2D地图。货运机器人还使用了Primesense公司的Carmine 1.09近程3D摄像机传感器,以实现激光雷达视场上下的可视化。然后,机器人周围的地图可以通过结合其车轮编码器、IMU和激光雷达的数据来绘制。一旦生成,基于web的GUI就可以用来限制机器人的运动,并定义充电站的位置(图3)。

为了进一步说明公司如何使用用于3D自主导航的分层传感系统,Nikolai Smolyanskiy及其在NVIDIA的同事们已经证明了该技术如何用于开发微型空中车辆系统,以便在森林等非结构化室外环境中自动跟踪小径。。用Pixhawk模块和NVIDIA Jetson TX1嵌入式超级计算机从Auvidea的J120载波上填充到3DR Iris + Quadcopter上,该系统采用了基于前进的Microsoft HD Lifecam HD5000 USB相机的视觉系统和向下的面向朝下的PX4FLOW光流量传感器从PIXHAWK带SONAR和LIDAR LITE V3光学远处测量传感器从Garmin。(图4)。

虽然自动汽车可能会收集到3D映射最宣传的虽然,但其他应用正在使用与农业,林业和仓库映射不同的地区相同的技术。该技术还用于映射海底,测量鱼类学校人口,并实现远程水下车辆指导。随着3D映射应用的数量上升,也是如此,为视觉和成像公司做的机会。

嵌入式愿景此内容是嵌入式视觉策展集合的一部分。要了解更多关于嵌入式视觉的知识,点击这里