LVI-SAM论文翻译

2023-05-16

摘要

        我们提出了一个通过smoothing and mapping的紧耦合的雷达视觉惯性里程计框架,LVI-SAM,能够实时状态估计和建图,且具有很高的精度和鲁棒性。LVI-SAM基于因子图构建,其包含了两个子系统:一个视觉惯性系统和一个雷达惯性系统。这两个子系统以紧耦合的方式设计,其中VIS利用LIS的状态估计促进VIS的初始化。VIS的精度通过使用激光雷达的测量值提取视觉特征点的深度信息进行提高。反之,LIS使用VIS的状态估计作为估计初值进行scan-match。回环检测首先通过VIS进行,然后通过LIS进一步的优化。当两个子系统中的一个子系统出现异常时,LVI-SAM也能正常工作,这提高了其在无纹理和无几何特征环境中的鲁棒性。LVI-SAM在多个平台收集的数据集上进行了广泛的评估。我们的实现已经开源。

1 简介   

        前面省略了价值不大的部分。 

        在本文中,我们提出了一个通过smoothing and mapping的紧耦合的雷达-视觉-惯性里程计框架,LVI-SAM,用于实时的位姿估计和建图。基于因子图,LVI-SAM是由两个子系统组成的,一个视觉惯性系统和一个雷达惯性系统。The two sub-systems can function independently when failure is detected in one of them, or jointly when enough features are detected.  VIS进行视觉特征跟踪,并可以选择是否使用雷达帧中的数据提取视觉特征点的深度。视觉里程计数据,是通过优化视觉的重投影误差和IMU的测量值获得的,也能作为激光scan-matching的初值,同时在因子图引入了约束。使用IMU测量值对点云去畸变后,LIS提取边特征和平面特征,并且与在滑窗中保持的特征地图进行匹配。LIS估计的系统状态可以发给VIS促进其的初始化。对于回环检测,首先由VIS识别,接下来由LIS进一步优化。来自于视觉里程计、激光里程计、IMU预积分【20】和回环的约束被加到因子图中进行联合优化。最后,优化后的IMU零偏被用来基于IMU的测量值进行前向传播估计位姿。我们工作的主要贡献可以总结如下:        

  • 基于因子图的紧耦合框架,在place recogniton的辅助下实现了多传感器融合和全局优化;
  • 我们的框架通过异常检测绕过了出现故障的子系统,使得它在传感器退化场景更加鲁棒;
  • 我们的算法在不同规模、平台和环境下采集的数据集上进行了验证;

        Our work is novel from a systems standpoint, representing a unique integration of the state-of-the-art in VIO and LIO to achieve an LVIO system offering improved robustness and accuracy.
我们希望我们的系统可以作为一个solid baseline,其他人可以很容易地基于此推进激光雷达视觉惯性里程计的发展。

2 lvi-sam

A 系统概述

        所提出的激光-视觉-惯性系统,它接收来自三维激光雷达,单目相机和IMU的数据,如图1所示。我们的系统由两个关键的子系统构成:一个视觉惯性系统和一个激光雷达惯性系统。VIS处理图像和IMU数据,不过激光雷达的测量数据也是可选的。视觉里程计是通过最小视觉和IMU测量数据的残差获得的。LIS首先提取激光点云特征,然后通过提取的特征与特征地图进行匹配获取激光里程计。为了实时性特征地图以滑窗的方式维护。最后,状态估计问题实际上可以归结为一个最大后验问题,可以通过使用iSAM2【21】联合优化因子图中的IMU预积分约束、视觉里程计约束和激光里程计约束求解。需要注意的是在LIS中使用的基于多传感器图优化是为了减少数据交换和提高系统效率。

B VI系统

         对于VIS,我们采用【8】中processing pipeline,如图2所示。视觉特征点通过角点检测器【22】检测,之后采用Kanade–Lucas–Tomasi算法【23】进行跟踪。VIS初始化之后,基于视觉里程计信息对齐激光帧的点云,得到了一个稀疏的深度图用于特征点深度估计。系统在滑窗中进行BA,其中的系统状态如下:

 其中R\epsilon O^{3}是旋转矩阵,P\epsilon O^{3}是位置向量,v是速度,b=[b_{a},b_{w}]是IMU零偏,其中b_{a}是加速度的零偏,b_{w}是角速度的零偏。变换矩阵T\epsilon SE^{3}表示从body坐标系到视觉坐标系W。在接下俩的章节中,我们给出了详细的步骤关于提高VIS初始化和特征深度估计。由于篇幅限制,我们推荐读者进一步阅读【8】了解细节,比如残差的实现。

B1 初始化

        基于图优化的VIO通常由于高度的非线性导致在初始化时不收敛。初始化的质量很是依赖于两个因素:初始化时传感器的运动和IMU参数的精度。在实际中,我们发现【8】在传感器以较小的速度或者恒定的速度运动时很容易初始化失败。这是由于当加速度激励不够导致了尺度因子不可观。IMU参数包含了缓慢变化的零偏和白噪声,这会影响到加速度和角速度的测量。在初始化中对于这些参数的良好猜测有助于优化的快速收敛。

        为了提高VIS初始化的鲁棒性,我们利用LIS估计的系统状态x和IMU零偏b。因为激光雷达可以直接观测到深度,我们首先初始化LIS并获取到系统状态x和零偏b。然后我们通过插值来把激光帧和视觉帧通过时间戳对齐。需要注意的是,两帧之间的IMU零偏被认为是一个常数。最后使用LIS估计的状态x和零偏b作为VIS初始化中的初始估计,极大的提高了初始化的速度和鲁棒性。关于VIS初始化过程中有无LIS辅助的对比可以参考补充视频。 

B2 视觉特征深度关联

        Upon the initialization of the VIS,我们使用估计的视觉里程计将激光雷达坐标系对齐到相机坐标系。由于现在的3D激光雷达通常点云比较稀疏,因此我们堆叠多个激光雷达帧以获得稠密的深度图。要将视觉特征与深度值关联,我们首先将视觉特征和激光雷达点投影到以相机为中心的单位球体上。然后使用球体上恒定密度的极坐标对激光雷达点进行下采样和存储。通过使用视觉特征的极坐标搜索二维K-D树,在球体上查找视觉特征的最近三个深度点。At last, the feature depth is the length of the line formed by the visual feature and camera center Oc, which intersects the plane formed by the three depth points in Cartesian space. 上述的处理过程如图3(a)所示,其中的特征深度就是虚线的长度。
 

        我们还需要通过检查与三个最近深度点的距离进一步验证特征点的关联深度。This is because stacking lidar frames from different timestamps may result in depth ambiguity from different objects。以上情况的说明如图3(b)所示。在ti时刻观察到的深度点用绿色表示。在tj时刻相机移动到了一个新的位置,并观察到了一个新的深度点(用灰色表示)。However, the depth points at ti, which are circled by a dashed gray line, may still be observable at tj due to lidar frame stacking. 使用来自不同物体的深度点来与视觉特征深度进行关联可能会导致状态估计的不准确。与【17】类似,我们通过检查特征周围深度点之间的最大距离解决上述问题。如果最大距离大于2m,就不对该特征点进行数据关联。

        深度图与视觉特征的对齐如图4所示。在图4的(a)中和(c)中,利用视觉里程计对齐的深度图投影到了图像上。在图4的(b)和(d)中,成功关联到深度的视觉特征是绿色的。需要注意的是在图(a)中尽管深度图覆盖了图像的绝大部分,但是在(b)中许多位于窗口角落区域的特征点由于validation check failure 缺乏深度关联。

B3 异常检测

        VIS在剧烈运动、光照变化和纹理缺乏的环境下很容易异常。当机器人进行剧烈运动时或者进入到一个纹理缺乏的环境下,跟踪的特征点会急剧下降。特征点不足导致了优化的不收敛。我们也注意到当VINS异常时估计的IMU零偏会特别的大。因此当IMU零偏超过了阈值或者跟踪的特征点低于阈值时,我们就认为VIS出现了故障。Active failure detection is necessary for our system so that its failure does not corrupt the function of the LIS. 一旦检测到异常时,VIS就立即进行重新初始化并通知LIS。

B4 回环检测

        我们使用DBoW2【24】进行回环检测。对于每个关键帧,我们提取它的BRIEF描述【25】,并将它与之前关键帧提取的描述子进行匹配。DBoW2返回的回环候选关键帧将被发送给LIS并做进一步的验证。

C LI系统

        提出的激光雷达惯性系统,继承于【14】,并如图5所示,其维持了一个因子图用于全局优化。其中包含了四种约束:IMU预积分约束,视觉里程计约束,雷达里程计约束和回环检测约束,它们被添加到因子图中进行联合优化。激光雷达里程计约束是从scan-matching推导出来的,where we match the current lidar keyframe to a global feature map。回环检测约束的候选帧首先由VIS提供,然后由scan-matching进一步确认。对于特征地图,我们维护了一个由激光雷达关键帧组成的滑动窗口,这保证了计算的复杂性不至于很高。当机器人的位姿变化超过了一个阀值的时候,选择此时的激光雷达帧作为关键帧。The intermittent lidar frames lying between pairs of keyframes are discarded. 基于新选择的关键帧,机器人的状态x被添加到因子图中作为一个节点。 以这种方式添加关键帧,不仅可以在内存消耗和地图密度之间取得平衡,而且还有助于维护相对稀疏的因子图以进行实时优化。由于篇幅的限制,我们推荐读者阅读【14】了解实现的细节。在接下来的章节中,我们重点关注于提高系统鲁棒性的新措施。

C1 初始估计

        我们发现初始估计在成功scan-matching中扮演非常重要的角色,特别是当传感器进行剧烈运动的时候。  The source of initial guess is different before and after LIS initialization.

        在LIS初始化之前,我们假设机器人在初始位置静止。然后我们对IMU的原始数据进行积分,并假设零偏和噪声是零。两个激光雷达关键帧之间的IMU积分后的平移和旋转作为scan-matching的初值估计。我们发现这种方法在初始速度小于10m/s和角速度小于180°/s这种具有挑战的场景下也可以成功的初始化。一旦LIS初始化成功,我们可以估计出因子图中的IMU的零偏、机器人的位姿和速度。然后呢我们把它们发送给VIS以促使其初始化。

        当LIS初始化成功后,我们有两个途径获取初始估计:IMU测量值的积分和VIS系统。当VIS里程计可以用的时候我们使用它作为初始估计。当VIS发生异常的时候,我们切换到IMU测量值的积分作为初始估计。以上的这些措施在纹理丰富或者纹理缺乏的环境中均提高了初始估计的精度和鲁棒性。

C2 异常检测

        尽管激光雷达可以得到场景中很远范围内的细节,但是也会在一些场景中导致扫描匹配失败,如图6所示。我们采用【26】的方法进行LIS的异常检测。在scan-matching中非线性优化问题可以构建为迭代求解如下的线性问题:

         其中A和b通过针对T线性化获得。The LIS reports failure when the smallest eigenvalue of A^{T}A is smaller than a threshold at the first iteration of optimization。当异常发生时,激光里程计不会添加到因子图中。我们建议读者阅读【26】,了解这些假设所依据的详细分析。

3 实验

4 结论

参考文献

[1] J. Graeter, A. Wilczynski, and M. Lauer, “LIMO: Lidar-Monocular Visual Odometry,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 7872–7879, 2018.
[2] Y.-S. Shin, Y. S. Park, and A. Kim, “DVL-SLAM: Sparse Depth Enhanced Direct Visual-LiDAR SLAM,” Autonomous Robots, vol. 44, no. 2, pp. 115–130, 2020.
[3] A. I. Mourikis and S. I. Roumeliotis, “A Multi-state Constraint Kalman Filter for Vision-aided Inertial Navigation,” IEEE International Conference on Robotics and Automation (ICRA), pp. 3565–3572, 2007.
[4] M. Bloesch, S. Omari, M. Hutter, and R. Siegwart, “Robust Visual Inertial Odometry using A Direct EKF-based Approach,” IEEE/RSJ international conference on intelligent robots and systems (IROS), pp. 298–304, 2015.
[5] P. Geneva, K. Eckenhoff, W. Lee, Y. Yang, and G. Huang, “OpenVINS: A Research Platform for Visual-Inertial Estimation,” IROS Workshop on Visual-Inertial Navigation: Challenges and Applications, 2019.
[6] S. Leutenegger, S. Lynen, M. Bosse, R. Siegwart, and P. Furgale, “Keyframe-based Visual-Inertial Odometry using Nonlinear Optimization,” The International Journal of Robotics Research, vol. 34, no. 3, pp. 314–334, 2015.
[7] A. Rosinol, M. Abate, Y. Chang, and L. Carlone, “Kimera: an Open-Source Library for Real-Time Metric-Semantic Localization and Mapping.” IEEE, 2020, pp. 1689–1696.
[8] T. Qin, P. Li, and S. Shen, “VINS-Mono: A Robust and Versatile Monocular Visual-Inertial State Estimator,” IEEE Transactions on Robotics, vol. 34, no. 4, pp. 1004–1020, 2018.
[9] J. Delmerico and D. Scaramuzza, “A Benchmark Comparison of Monocular Visual-Inertial Odometry Algorithms for Flying Robots,” IEEE International Conference on Robotics and Automation (ICRA), pp. 2502–2509, 2018.
[10] J. Zhang and S. Singh, “Low-drift and Real-time Lidar Odometry and Mapping,” Autonomous Robots, vol. 41, no. 2, pp. 401–416, 2017.
[11] T. Shan and B. Englot, “LeGO-LOAM: Lightweight and GroundOptimized Lidar Odometry and Mapping on Variable Terrain,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 4758–4765, 2018.
[12] C. Chen, H. Zhu, M. Li, and S. You, “A Review of Visual-InertialSimultaneous Localization and Mapping from Filtering-based and Optimization-based Perspectives,” Robotics, vol. 7, no. 3, p. 45, 2018.
[13] H. Ye, Y. Chen, and M. Liu, “Tightly Coupled 3D Lidar Inertial Odometry and Mapping,” IEEE International Conference on Robotics and Automation (ICRA), pp. 3144–3150, 2019.
[14] T. Shan, B. Englot, D. Meyers, W. Wang, C. Ratti, and D. Rus, “LIOSAM: Tightly-coupled Lidar Inertial Odometry via Smoothing and Mapping,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 4758–4765, 2020.
[15] C. Qin, H. Ye, C. E. Pranata, J. Han, S. Zhang, and M. Liu, “LINS: A Lidar-Inertial State Estimator for Robust and Efficient Navigation,” IEEE International Conference on Robotics and Automation (ICRA), pp. 8899–8906, 2020.
[16] C. Debeunne and D. Vivet, “A Review of Visual-LiDAR Fusion based Simultaneous Localization and Mapping,” Sensors, vol. 20, no. 7, p. 2068, 2020.
[17] J. Zhang and S. Singh, “Laser-Visual-Inertial Odometry and Mapping with High Robustness and Low Drift,” Journal of Field Robotics, vol. 35, no. 8, pp. 1242–1264, 2018.
[18] A. Geiger, P. Lenz, C. Stiller, and R. Urtasun, “Vision Meets Robotics: The KITTI Dataset,” The International Journal of Robotics Research, vol. 32, no. 11, pp. 1231–1237, 2013.
[19] X. Zuo, P. Geneva, W. Lee, Y. Liu, and G. Huang, “LIC-Fusion: LiDAR-Inertial-Camera Odometry,” arXiv preprint arXiv:1909.04102, 2019.
[20] C. Forster, L. Carlone, F. Dellaert, and D. Scaramuzza, “On-Manifold Preintegration for Real-Time Visual–Inertial Odometry,” IEEE Transactions on Robotics, vol. 33, no. 1, pp. 1–21, 2016.
[21] M. Kaess, H. Johannsson, R. Roberts, V. Ila, J. J. Leonard, and F. Dellaert, “iSAM2: Incremental Smoothing and Mapping using the Bayes Tree,” The International Journal of Robotics Research, vol. 31, no. 2, pp. 216–235, 2012.
[22] J. Shi et al., “Good Features to Track,” IEEE Conference on Computer Vision and Pattern Recognition, pp. 593–600, 1994.
[23] B. D. Lucas, T. Kanade et al., “An Iterative Image Registration Technique with an Application to Stereo Vision,” 1981.
[24] D. Galvez-L ´ opez and J. D. Tardos, “Bags of Binary Words for ´ Fast Place Recognition in Image Sequences,” IEEE Transactions on Robotics, vol. 28, no. 5, pp. 1188–1197, 2012.
[25] M. Calonder, V. Lepetit, C. Strecha, and P. Fua, “Brief: Binary robust independent elementary features,” European conference on computer vision, pp. 778–792, 2010.
[26] J. Zhang, M. Kaess, and S. Singh, “On Degeneracy of Optimizationbased State Estimation Problems,” IEEE International Conference on Robotics and Automation (ICRA), pp. 809–816, 2016.

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

LVI-SAM论文翻译 的相关文章

  • 【MICCAI2018论文翻译】从结构磁共振图像中分割脑肿瘤和提取纤维束追踪特征预测总存活率

    原文移步 xff1a Brain Tumor Segmentation and Tractographic Feature Extraction from Structural MR Images for Overall Survival
  • LVI-SAM:使用SAM的激光-视觉-惯导紧耦合里程计

    转载自 xff1a https mp weixin qq com s MlN 0BD9rAdJwsVco7TRlg LVI SAM 使用SAM的激光 视觉 惯导紧耦合里程计 原创 泡泡机器人 泡泡机器人SLAM 今天 标题 xff1a LV
  • LIO-SAM-自采数据运行踩坑

    一直觉得LIO SAM还是一个比较不错的激光雷达惯性里程计框架 xff0c 最近在使用自己的数据进行测试过程中出现了很多坑 xff0c 花费了一周多的时间才填平 xff0c 在此记录一下 前言 Ouster 128激光雷达数据Ouster内
  • lvi-sam的深度匹配策略

    在lvi sam中 xff0c 作者通过视觉处理的时候 xff0c 利用lidar的深度信息 xff0c 得到了更稳定的估计 那在代码里是怎么实现的呢 xff1f 一起来看看看呗 1 在lvi sam的feature tracker nod
  • DWA论文翻译

    摘要 本文介绍了一种能够令机器人进行自主避障的动态窗口法 xff08 dynamic window approach xff0c DWA xff09 该方法是从机器人的运动动力学直接推导出的 xff0c 因此特别适合在高速运动的机器人 与以
  • TEB论文翻译

    摘要 传统的 elastic band 方法在规避障碍物的同时 xff0c 会根据距离最短的原则修正全局路径规划算法生成的路径 不过 elastic band 方法没有考虑到机器人的任何运动学约束 本文提出了一种称为 Time elasti
  • GVINS论文翻译

    摘要 众所周知 xff0c 视觉惯性里程计 VIO 会出现漂移 xff0c 尤其是在长时间运行的条件下 本文提出了一种基于非线性优化的系统 GVINS xff0c 它将 GNSS 原始测量 视觉和惯性信息紧耦合以进行实时和无漂移的状态估计
  • R3live论文翻译

    摘要 在本文中 xff0c 我们提出了一个新颖的激光惯性视觉传感器融合框架 xff0c 也就是R3live xff1b 它利用了激光雷达 惯性和视觉传感器的测量值 xff0c 可以得到鲁棒和高精度的状态估计 R3live包含了两个子系统 x
  • FAST-LIO2论文翻译

    摘要 本文提出了FAST LIO2 xff1a 一个快速 xff0c 鲁棒和多功能的雷达惯性里程计框架 基于高效的紧耦合的迭代卡尔曼滤波 xff0c FAST LIO2有两个关键的创新点 xff0c 可实现快速 鲁棒和准确的激光导航 xff
  • ROS-3DSLAM(二)lvi-sam项目认识

    2021SC 64 SDUSC xff08 二 xff09 lvi sam项目认识 一 SLAM简介 SLAM是Simultaneous Localization and Mapping xff08 同时定位 43 建图 xff09 独立的
  • 视觉大模型 | SEEM:比SAM更强!

    作者 派派星 编辑 CVHub 点击下方卡片 xff0c 关注 自动驾驶之心 公众号 ADAS巨卷干货 xff0c 即可获取 点击进入 自动驾驶之心 语义分割 技术交流群 Title Segment Everything Everywher
  • ORB-SLAM2论文翻译

    文章转载至泡泡机器人 转载链接 链接 摘要 ORB SLAM2是基于单目 xff0c 双目和RGB D相机的一套完整的SLAM方案 它能够实现地图重用 xff0c 回环检测和重新定位的功能 无论是在室内的小型手持设备 xff0c 还是到工厂
  • 用rs_lidar雷达跑lio_sam

    1 准备工作 imu绑定串口有线连接雷达并能用rviz显示雷达点云用两个imu标定包标定imu在完成第二步必要的工作后 xff0c 配置LIO SAM config 下的params yaml参数 xff0c 更改之前建议备份在旁边复制粘贴
  • 【SLAM】LVI-SAM解析——综述

    LVI SAM可以认为是LIO SAM和VINS MONO的合体 xff0c 在此基础上的修改不大 github xff1a https github com TixiaoShan LVI SAM paper LVI SAM Tightly
  • RNA-seq——三、使用Hisat2进行序列比对

    步骤 1 下载对应的index 2 序列比对 3 samtools 将sam文件转为bam文件 4 将bam文件载入IGV 为什么要比对 https www jianshu com p 681e02e7f9af Jimmy老师主要演示了四种
  • 【CV大模型SAM(Segment-Anything)】如何一键分割图片中所有对象?并对不同分割对象进行保存?

    之前的文章 CV大模型SAM Segment Anything 真是太强大了 分割一切的SAM大模型使用方法 可通过不同的提示得到想要的分割目标 中详细介绍了大模型SAM Segment Anything 根据不同的提示方式得到不同的目标分
  • 利用SAM实现自动标注

    利用SAM实现自动标注 目录 利用SAM实现自动标注 一 下载安装 1 1 下载SAM Tool和SAM 1 2 下载SAM模型文件 1 3 安装SAM 二 配置项目 三 提取信息 四 获得SAM onnx文件 五 标注 六 格式转换 6
  • 【论文翻译】Convolutional Oriented Boundaries

    目标轮廓检测与全卷积编解码器网络 摘要 本文实现一种基于全卷积编解码器网络的轮廓检测深度学习算法 1 与以往的低级边缘检测不同 该算法重点是检测高级对象轮廓 算法网络是在PASCALVOC上进行端到端训练的 从不准确的多边形注释中提炼出gr
  • 如何使用 localstack 部署 SAM 堆栈?

    我已经编写了一个 SAM 堆栈 并且可以在 AWS 上构建 打包和部署它 我还可以使用 start local 或 invoke 来测试 现在我需要测试其他 AWS 资源 我已将这些资源添加到我的 SAM 模板中 它在 AWS 上运行良好
  • 多功能 SAM 模板的推荐项目结构

    我有一个新项目 需要相对少量的服务 可能是 10 个或更少 因此将每个服务放在单独的项目存储库中并不经济 每项服务都将通过 SAM 模板定义为 AWS Serverless Function 我的问题是 组织或构建这样一个项目的推荐方法是什

随机推荐

  • 波特率的解析及转换为字节传输速率

    波特率115200 xff1d 115200 位 秒 以最普通的串口 xff08 起始位 43 8位数据 43 停止位 xff09 为例 xff1a 除以 10 xff0c 得到的是每秒字节数 xff1a 波特率115200 xff1d 1
  • 如何判断CAN总线空闲以及帧间隙,计算传输速率

    一 如何判断总线忙还是空闲呢 进入 正常模式之前 xff0c bxCAN 必须始终在 CAN 总线上实现 同步 为了进行同步 xff0c bxCAN 将等待 CAN 总线空闲 xff08 即 xff0c 已监测到CANRX 上的 11 个隐
  • STM32 DMA传输出错的防错机制

    一 DMA 中断 对于每个 DMA 数据流 xff0c 可在发生以下事件时产生中断 xff1a 达到半传输 xff08 每次传输都会触发 xff0c 属于正常触发 xff09 传输完成 传输错误 FIFO 错误 xff08 上溢 下溢或 F
  • IAR的View视图菜单中Watch、 Live Watch、 Quick Watch、 Auto、 Locals、 Statics这几个子菜单的含义和区别

    一 简述IAR的View视图菜单 View这个菜单的意思就是打开 xff08 已关闭的 xff09 视图窗口 xff0c 比如我们的工作空间窗口不见了 xff0c 就可以通过该菜单打开 不瞒大家 xff0c 以前我初学软件的时候 xff0c
  • DWA论文翻译

    摘要 本文介绍了一种能够令机器人进行自主避障的动态窗口法 xff08 dynamic window approach xff0c DWA xff09 该方法是从机器人的运动动力学直接推导出的 xff0c 因此特别适合在高速运动的机器人 与以
  • DWA仿真测试

    1 前言 由于之前已经对相关论文进行了翻译 xff0c 因此这里就不再对DWA的原理进行赘述 本文主要目的是根据相关的程序进一步强化对论文中所体现思想的理解 2 示例1 以下是使用python写的一个例子 xff0c 其中比较核心的是把搜索
  • TEB论文翻译

    摘要 传统的 elastic band 方法在规避障碍物的同时 xff0c 会根据距离最短的原则修正全局路径规划算法生成的路径 不过 elastic band 方法没有考虑到机器人的任何运动学约束 本文提出了一种称为 Time elasti
  • 求字符串中的最长回文子串

    方法一 xff08 暴力法 xff09 xff1a include lt stdio h gt include lt string h gt bool Palindrome const char str int start int end
  • 状态估计4(无迹卡尔曼滤波)

    1 简述 2 无迹卡尔曼滤波的思想 3 无迹卡尔曼滤波的核心公式 4 两个例子 34 34 34 Unscented kalman filter UKF localization sample author Atsushi Sakai 64
  • 积分曲线的绘制问题

    概述 事情突然 xff0c 我师姐让我帮她用maltab绘制一个函数的积分曲线 xff0c 如 xff0c 只是感觉满有意思的 xff0c 记录于此 xff01 1 示例 1 1 程序 coding utf 8 34 34 34 Creat
  • 并发与多线程3 (访问局部变量)

    1 例子 1 1 程序 include lt iostream gt include lt thread gt using namespace std struct func public func int amp i i i void o
  • 符号运算求解方程组

    概述 最近帮同事求解一个问题 xff0c 实在不想自己动手推导了 xff0c 就用python的符号运算自动计算了 xff0c 蛮有意思的 1 例子 1 1 程序 34 34 34 Created on Wed Jun 30 14 26 3
  • qtcreator+ClangFormat格式化代码

    1 前言 希望能够格式化代码 xff0c 令代码更加的整齐漂亮 2 设置 1 工具 选项 2 然后选择Beautifier General xff0c Tool选择ClangFormat 图1 General 3 点击ClangFormat
  • 状态估计1(贝叶斯滤波)

    在 概率机器人 中是这么定义 定位 xff0c 确定相对于给定地图环境的机器人位姿 xff0c 也经常被称为位置估计 不过现在这个定义明显被扩展了 xff0c 比如我们也希望知道在没有地图先验的情况下机器人的位置 xff0c 典型的如VIO
  • VINS-Mono论文翻译

    摘要 由一个相机和一个低成本惯性测量单元 IMU 组成的单目视觉惯性系统 VINS xff0c 构成了用于估计六自由度状态的最小传感器单元 xff08 大小 xff0c 重量和功耗 xff09 本文提出了VINS Mono xff1a 一个
  • GVINS论文翻译

    摘要 众所周知 xff0c 视觉惯性里程计 VIO 会出现漂移 xff0c 尤其是在长时间运行的条件下 本文提出了一种基于非线性优化的系统 GVINS xff0c 它将 GNSS 原始测量 视觉和惯性信息紧耦合以进行实时和无漂移的状态估计
  • 使用Mapviz和天地图API绘制gvins算法的轨迹

    1 前言 最近在研究gvins算法 xff0c 由于使用rviz没有办法说明问题 xff0c 也没有办法直观的向老板汇报 xff1b 所以必须找到一个能够在地图上直接显示轨迹的工具 xff0c 经调研选择了Mapviz这个工具 2 安装和配
  • FAST-LIVO论文翻译

    摘要 多传感器融合被证明是一种能够在SLAM任务中取得准确和鲁棒位姿估计的有效解决方案 xff0c 因而在机器人应用中具有无限可能 本文提出了FAST LIVO方法 xff0c 一种快速的雷达 惯性 视觉里程计 xff0c 其中包含了两个紧
  • 工作后,如何免费查论文

    工作后 xff0c 如何免费查论文 毕业后不能像在学校一样享受下载免费论文的待遇了 免费论文 毕业论文 各专业论文在哪里可以下载 xff1f 如果你的学校图书馆有数据库 xff0c 那当然是优先选择 xff0c 很多学校购买了期刊的数据 x
  • LVI-SAM论文翻译

    摘要 我们提出了一个通过smoothing and mapping的紧耦合的雷达视觉惯性里程计框架 xff0c LVI SAM xff0c 能够实时状态估计和建图 xff0c 且具有很高的精度和鲁棒性 LVI SAM基于因子图构建 xff0