机器人导航两篇顶级会议论文解析
一.一种用于四旋翼无人机室内自主导航的卷积神经网络特征检测算法
标题:A Convolutional Neural Network Feature Detection Approach to Autonomous Quadrotor Indoor Navigation
作者:Adriano Garcia, Sandeep S. Mittal, Edward Kiewra and Kanad Ghose
来源:2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)
摘要
用于识别和定位室内结构特征点的目标检测技术,目前同样可以应用于四旋翼无人机室内自动导航。四旋翼无人机上搭载的前向单目相机拍摄的视频流会实时传输到外场的主机系统,并且在外场主机上运行了一套基于卷积神将网络的目标检测算法来识别一些特殊的特征点,例如死角、门和一些走廊的十字口。利用被识别物体周围边界框的像素级尺寸,使用支持向量回归(SVR)模型,可以准确估计到交叉口、终端和入口的距离,生成飞行控制命令,并且在飞行速度接近2m /s时实现一致的实时自主导航。
图1 区别于传统的图像处理方法,本文使用卷积神经网络来同时对结构特征点进行检测和定位,这使得我们的方法可以处理更多类的目标检测问题。图示为本文算法的结构流程,无人机飞行过程中的视频流和导航数据救人无人机API TX/RX节点,其中视频流输入到YOLO3结构特征点探测器节点并输出边界检测数据。在控制节点中,边界检测数据进入近邻估计算法并结合无人机导航数据进入导航算法流程,并计算得到无人机飞控指令。最后得到的指令同样通过无人机API接口传入到无人机,控制无人机行动。我们使用基于CNN的YOLO架构来训练和执行预测模型,实验证明这种做法可信度非常高并且可以持续的检测和定位结构特征点,并且平均速度可以达到25帧每秒。
图2 本文使用的CNN视觉模型是一种目标检测模型,该模型经过训练和可以对交叉口、死角和一些其他例如们和海报板等多种走廊特征进行检测和定位。我们之前的工作是使用图像处理方法来进行特征点检测,但这种方式不能很好的对光照条件进行很好的兼容。本文的CNN-based特征识别方法则没有这种限制,并且可以对目前进行的所有试验场景很好的兼容工作。本文用的YOLO3网络共有53个卷积层,batch_size为64,learning_rate设置为0.001。上图所示为使用YOLO网络来对目标进行边界提取标记。
图3 估计真实世界中相机到这些标记特征的距离是非常必要的,这样可以把目标检测的标记位置与真实世界中的位置进行对应,进而保证无人机控制模块可以产生准确的指令。我们使用相机校准技术来获得对应关系模型来讲图像平面像素长度转换到真实世界的距离值。我们需要记录实际的真值测量值并且分析检测到的特征点是如何在像素平面变化的。经过我们的实验,我们的YOLO检测系统可以检测和定位前向55m到2m之家你的距离。上图所示为深度值估计结果,经过统计分析,最高的误差达到3.4m,平均误差在0.75m。
图4 为了验证我们基于CNN系统的有效性,我们为YOLO_based的自主导航视觉系统在一系列不同的走廊场景进行了实际飞行测试,场景包括:直线飞行经过宽的和窄的走廊;飞行经过转弯;在多走廊路径中进行持续自动飞行。上述三图分别为平面多路径展示图以及测试结果统计表。经过测试,路径A中的最高时速比其他飞行过程中的大一些,这是因为无人机在两个拐点之间飞行了较长的距离,因此无人机有充足的时间加速到最高时速。在飞行测试过程中,发生了一些撞墙事件,但是都被控制节点很好的解决掉并且完成了整体的飞行。
二.基于先验雷达地图约束的视觉惯导定位
标题:Visual-Inertial Localization with Prior LiDAR Map Constraints
作者:Xingxing Zuo, Patrick Geneva, Yulin Yang, Wenlong Ye, Yong Liu, and Guoquan Huang
来源:IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),2019
摘要
在本文中,我们开发了一种低成本的双目相机-惯导定位系统,该系统有效利用多状态约束卡尔曼滤波(MSCKF)的视觉惯性里程计同时利用先验雷达地图提供有界误差的三维导航。除了VIO中使用的标准的稀疏视觉特征点测量,在紧耦合的MSCKF更新中利用了之前的激光雷达地图上的视觉半直接法的全局注册,从而校正了累积误差。这种视觉和激光雷达点云之间的交叉模式约束得到了特别的解决。该方法在蒙特卡罗模拟和实际实验中都得到了验证,结果表明,通过不同的感知模式创建点云之间的激光雷达地图约束极大地改善了标准VIO并提供了有界误差性能。
图1. 提出的带有先验雷达地图约束的视觉惯导定位系统在EurocMac数据集上运行。先验的激光雷达地图是根据高度添加颜色的,而真值和估计的轨迹分别用青色和粉红色绘制。由一系列关键帧重建的半稠密点云以黑色表示。
图2.所提出的定位系统的数据流,双目和惯导测量可以从左面看到,所提出地图约束的子系统用红色框强调。
图3.没有深度细化的视觉半稠密重建(左)在房间的墙壁上有高水平的噪音。相比之下,深度细化的视觉半稠密重建(右)沿边界显示出较低的噪声(见插图)。这些点云是EurocMav V1 02中等序列的一个小子集。
表一.蒙特卡罗模拟参数
表二.具有不同层次的先验地图噪声的均方根误差
图5.合成Gazebo数据集的鸟瞰图。机器人长达836米的groundtruth轨迹用红色表示。机器人的最大速度设定为2.5 m/s。图6.0.03的噪声下标准MSCKF和具有先验激光雷达地图的MSCKF的方位和位置RMSE的仿真结果。
表三.对于不同段长度的相对位姿误差
图7.相对轨迹误差统计的箱线图。中间的盒子跨越了第一和第三个四分位数,而胡须是上限和下限。从颜色上看,带有激光雷达地图约束的平移误差最好。
表四.添加地图的MSCKF、标准MSCKF和VINS-Mono的变种在5段数据集上的平均绝对轨迹误差(左)。两个系统线程的时间信息:(I)稀疏视觉惯导里程计和(II)先验地图约束(右)。