In this letter, we present a robust, real-time, inertial navigation system (INS)-Centric GNSS-Visual-Inertial navigation system (IC-GVINS) for wheeled robot, in which the precise INS is fully utilized in both the state estimation and visual process. To improve the system robustness, the INS information is employed during the whole keyframe-based visual process, with strict outlier-culling strategy. GNSS is adopted to perform an accurate and convenient initialization of the IC-GVINS, and is further employed to achieve absolute positioning in large-scale environments. The IMU, visual, and GNSS measurements are tightly fused within the framework of factor graph optimization. Dedicated experiments were conducted to evaluate the robustness and accuracy of the IC-GVINS on a wheeled robot. The IC-GVINS demonstrates superior robustness in various visual-degenerated scenes with moving objects. Compared to the state-of-the-art visual-inertial navigation systems, the proposed method yields improved robustness and accuracy in various environments. We open source our codes combined with the dataset on GitHub


翻译:在本信里,我们为轮式机器人提出了一个强大、实时、实时、惯性导航系统(INS)-Centrial GNS-Vial-Intister导航系统(IC-GVINS)-Central GNS-Vial导航系统(IC-GVINS)-Central GNS-Central GNSS-Vial-Vial-Instital导航系统(IC-IVINS)-Central-Central GNSS-Central-Vial-IVial-Indernal导航系统(IC-GVINS)-Central-Central-Central-Central-CYS-CUnical-CS-GVINSS)-(IC-INSS-IC-IC-I-IVI-INSS-IC-INSS-IC-INSS-IC-IC-I-INS)-(IC-I-I-ID-I-I-INS)-IC-ID-ID-INS)-C-Centnviewial-C-C-C-C-C-Cent-Cent-Cent-C-C-C-C-Cent-Cent-Cent-C-C-Central-Cential-NS-NS-NS-C-C-C-C-C-C-NS-C-C-Cent-Cent-C-C-C-C-C-C-NS-NS-NS-NNS-NS-NS-NS-NS-NS-NS-NS-NS-I-I-C-C-I-C-NS-I-NS-I-NS-C-I-NGNS-I-I-I-NS-I-I-I-I-I-I-I-I-I-I-I-I-NS-NS-I-I-INS-NS-NS-NS-IS-I-I-I-I-I-I-I

0
下载
关闭预览

相关内容

[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年7月22日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员