Abstract:
视觉同时定位与建图技术已成为移动机器人和无人驾驶等领域的一个研究热点.目前,大多数视觉SLAM假设周围环境为静态的,当场景中存在运动物体时容易失效.为此,本文基于视觉图像的语义和几何信息来剔除环境中的运动物体,以提升系统的鲁棒性.具体地,本工作在ORB-SLAM2的基础上,通过多线程机制实现轻量级网络获取语义信息,以剔除已知类型的动态对象,并设计一个和语义剔除紧耦合的几何检测模块来剔除未知类型的运动物体.为平衡实时性与建图鲁棒性,在平台处理能力不足时,采用只对关键帧剔除动态点的策略.在TUM RGB-D的动态环境数据集的实验结果表明,本文算法在动态环境下的定位精度相较ORB-SLAM2有显著提升;与其他动态SLAM相比,精度也有一定程度的提升.
Keyword:
Reprint 's Address:
Email:
Version:
Source :
微电子学与计算机
ISSN: 1000-7180
CN: 61-1123/TN
Year: 2023
Issue: 10
Page: 29-37
Cited Count:
WoS CC Cited Count: 0
SCOPUS Cited Count:
ESI Highly Cited Papers on the List: 0 Unfold All
WanFang Cited Count:
Chinese Cited Count:
30 Days PV: 0
Affiliated Colleges: