一种几何语义协同的动态视觉定位算法
在卫星拒止的室内环境中,通常采用搭载视觉传感器的VSLAM方案以降低移动机器人自主导航成本。然而传统视觉定位算法基于静态世界假设,现实环境中由于运动物体影响,传统视觉里程计易产生特征误匹配导致跟踪和重定位失败,系统无法稳定运行。本文面向室内动态场景,提出一种结合神经网络的视觉定位算法。为满足静态世界假设,在特征匹配阶段,本文采用一种结合多视图几何学与深度学习方法的几何语义协同动态特征处理策略。首先,通过几何学方法进行预检测,只将含有一定量动点的图像送入目标检测网络处理,而对微动态场景仅采用几何学方法处理。为解决目标检测网络在局部动态场景中的过剔除导致的追踪中断问题,在关键帧选择阶段,本文提出一种自适应关键帧插入策略,进一步提升了系统的鲁棒性。最后利用TUM Dynamic Objects数据集进行实验,结果表明,本文提出的算法在不同动态场景下相较ORB-SLAM2算法系统平均定位精度提升40%以上,同时系统实时性相较同样嵌入动点剔除算法的DynaSLAM有显著提升。
视觉定位 目标检测 关键帧 动态场景
蔡东伟 邓中亮 彭颖轩
北京邮电大学,北京,中国,100876
国内会议
北京
中文
1-7
2022-12-01(万方平台首次上网日期,不代表论文的发表时间)