SLAM综述:激光雷达与视觉SLAM(2019.10.12)

2023-05-16

本文基于https://arxiv.org/pdf/1909.05214v2.pdf 进行阐述 (其实差不多就是精简版翻译)

第一节概述。

第二节讲述激光SLAM:激光传感器,开源系统,深度学习的应用。

第三节讲述视觉SLAM:相机传感器,开源系统,视觉惯性里程计,深度学习的应用。

第四节讲述激光雷达与视觉的融合。 最后展望SLAM的发展前景。

第一节:概述

SLAM:同时定位和建图(Simultaneous Localization and Mapping)。为了精确的定位,需要有精确的环境地图;为了得到精确的环境地图,需要有精确的定位。这便是先有鸡还是先有蛋的问题了。于是乎,只能同时定位与建图—SLAM。

事情还要追溯到1990年,【Estimating uncertain spatial relationships in robotics】利用扩展卡尔曼滤波器估计机器人姿态的后验分布。于是越来越多的研究者开始进入研究(入坑)。其中对于定位的研究主要基于GPS (Global Positioning System), IMU (Inertial Measurement Unit), and wireless signal。GPS只有在室外定位才比较精准,IMU具有累积误差,无限信号受制于成本和精确度。

目前较为主流的是filter-based SLAM, Graph-based SLAM。

第二节:激光SLAM

最开始是给机器人装备的SLAM系统融合了伺服驱动声呐传感器和扩展卡尔曼滤波器。后来激光的引入才使得SLAM勉强能看。

根据激光束的不同可将激光传感器区分为2D和3D传感器,都逐渐趋向于轻量化与小型化。作者还在文章中列举了一些传感器的公司和激光SLAM系统,系统分为2D SLAM系统(Gmapping、HectorSlam、KartoSLAM),3D SLAM系统(Loam、Lego-Loam、Cartographer),以及采用深度学习的激光 SLAM的系统。

困难及展望:

  1. 成本及适应性
    激光的优势在于提供了3D信息(视角能到360°),且不受光线的影响。但是技术门槛高且贵。目前正在向小型化、成本低、高可靠性和适应性的趋势发展。

此处叙述有误,感谢评论区大佬指出
2. 低维特征及动态环境
激光SLAM在低纹理环境下(比如走廊和管道)效果不好,于是【Imuassisted 2d slam method for low-texture and dynamic environments】将IMU和2D SLAM相结合以解决这类问题。【Dynamic pose graph slam: Long-term mapping in low dynamic environments】将时间维度融入到映射的过程中,以便在动态环境中精确建图。

  1. 对抗性样本
    为了使系统规避一些潜在的风险,有一部分研究人员致力于生成模型的对抗性样本。这也是一个不错的研究方向。

第三节:视觉SLAM

伴随着图像处理的深入研究,以摄像机为传感器的SLAM系统得到了快速发展。与激光传感器相比,摄像机更加便宜、小且轻。目前视觉SLAM已经可以在微PC和嵌入式设备上运行了,以及一些在手机上的应用。

视觉SLAM系统包括传感器数据的搜集(camera and IMU),前端的视觉(惯性)测程,后端的优化,闭环及映射等,还包括重新定位等附加模块。

A. 视觉传感器

  1. 单目相机
    无法获取图像的真实深度(官方术语:尺度模糊),所以必须初始化,并面临漂移问题。但是计算量是真的小。

  2. 双目相机(也叫立体相机)
    顾名思义,即两个单目相机的组合。通过左右(一般是左右放置,毕竟,类人嘛)图片的视差来计算物体所处的深度,但是计算量比较大(我觉得应该怪CPU运算能力不行,你看我们大脑多?,,,时间问题,等等运算力就上来了)。

  3. RGBD相机
    前面两个相机都要通过运算才得到深度信息,这哥们就比较?了,直接物理外挂—拍照片的时候就把深度信息存在进来,一般是通过结构光或者TOF技术来实现。但是也有缺点,鲁棒性不太好,应用范围有限,室外很少采用。

  4. 事件相机(Event camera)
    事件相机并不是以固定的速率捕获图像,而是异步的测量每个像素的变化。(是不是一下就搞蒙了?)说人话就是:事件相机并不是一直在拍照,而是收到信号后才开始记录。它具有高动态范围、高时间分辨率及低功耗,不会出现运动迷糊。因此在高速、高动态的环境下优于传统相机。

B. 视觉SLAM系统

利用图像信息的方法可以分为直接法和基于特征的方法。直接法会得到半密集和密集结构,主要用于3D重构、导航、避障等方面,需要处理的数据量很大。基于特征的方法带来稀疏结构,虽然没法重构出当前场景,但也能得到当前场景中的部分信息,理论上可用于定位与跟踪。

  1. 稀疏的视觉SLAM
    MonoSLAM是第一个实时单目系统,PTAM是第一个平行跟踪和建图的系统,它首先提出了包调整和关键帧的概念。ORB-SLAM采用了三个线程:循迹,基于包调整的局部优化和基于位姿图的全局优化,该系统支持单目、双目及RGBD。

  2. 半密集视觉SLAM
    LSD-SLAM(基于单目的系统)提出了一种基于李代数和直接法的直接跟踪新方案。SVO(单目)半直接的视觉导航,利用基于稀疏模型的图像对齐来获得较快的速度。DSO(单目)基于直接法和稀疏法建立了一个可视化的导航系统。EVO(基于事件相机)是一种基于事件的视觉测程算法,不受模糊运动的影响,在高动态场景中变现良好。

  3. 密集视觉SLAM
    DTAM(单目)在一种新的非凸优化框架中,通过最小化全局空间正则化能量泛函,实现三维模型的实时重建。MLM SLAM(单目)无需GPU就可以在线重建3D模型(计算量小),突出贡献在于多分辨率的深度估计和空间平滑处理。Kinect Fusion(RGBD)几乎是第一个具有深度摄像机的三维重建系统。DVO(RGBD)提出基于熵的关键帧选择相似度度量和基于g2o框架的闭环检测。

  4. 视觉惯性测程SLAM
    视觉SLAM的距离测定是技术难题:单目相机存在必要的初始化,尺度模糊和尺度漂移等问题;双目相机和RGBD相机计算量大,视场较小和场景的动态范围小等问题。逐渐,VIO (visual inertial odometry SLAM)视觉惯性里程计开始登上舞台。

VIO SLAM的开源系统:
SSF(松耦合、基于过滤器)一种基于EKF的单传感器和多传感器时延补偿融合框架;MSCKF-VIO(紧耦合、基于过滤器);ROVIO(紧耦合、基于过滤器、单目)扩展跟踪三维地标和图像斑块特征的卡尔曼滤波。

基于深度学习的VIO-SLAM可以在【Unsupervised deep visual-inertial odometry with online error correction for rgb-d imagery.】中看到,该系统不需要惯性测量单元(IMU)的固有参数,也不需要IMU与摄像机之间的外部标定,都用深度网络搞定。

5. 基于深度学习的视觉SLAM
提出了一个概念:语义SLAM(semantic SLAM)在SLAM的处理过程中加入语义信息以提供高层次的理解、高鲁棒性、资源感知和任务驱动感知。接下来从三个方面来分析:

  1. 特征及检测
    Pop-up SLAM(单目)提供了一种实时的单目平面SLAM,证实了语义信息对于状态估计和稠密映射有益,尤其是在低纹理环境中。SuperPoint提出了一种用于训练兴趣点检测器和描述符的自监督框架。GCN-SLAM提出了一个基于深度学习的网络GCNv2,用于生成关键点和描述符。SalientDSO可以借助深度学习实现视觉显著性和环境感知。

  2. 识别与分割
    SLAM++(CAD模型)指出了3DSLAM算法为导向的主要优势:充分利用了先验知识的循环,即许多场景是由重复的、领域特定的对象和结构组成。

读到这里,一个悲催的事实发生了,,,作者在文中写的是—[[159] combines the state-of-art deep learning method and LSDSLAM based on video stream from a monocular camera.] 这里表达的意思是【159】将深度学习中最先进的技术应用于SLAM中,结果,【159】指的是【Semi-dense 3d semantic mapping from monocular slam. 2016.】,一篇16年的论文。。。无FK说,作者直接引用原论文中的话术,还不带过小脑。。。我开始怀疑整篇论文的质量了。。。综述里边基本都不用the state-of-art的话术的。。。

语义融合Semanticfusion (RGBD)将卷积神经网络(CNN)和一种最先进(这个字眼,又来了)的密集SLAM技术相结合。DenseFusion是一个用于评估的通用框架RGB-D图像中一组已知物体的6D姿态。

  1. 恢复规模
    CNN-SLAM(单目)通过深度学习来估计深度,谷歌提出了一种在单目摄像机和场景中人员自由移动的情况下,基于非监督学习的稠密深度预测方法。

  2. 姿态输出及优化
    PoseNet能够在没有任何优化的情况下从单张RGB图片得到一个6自由度的姿态。VInet(单目)对VIO中的运动进行估计,减少对手动同步和校准的依赖。DeepVO(单目)提出了一种基于深度递归卷积的单目VO端到端神经网络框架(RCNNs)。

  3. 长期定位
    【Probabilistic data association for semantic slam】提出一个传感器状态和语义地标位置的优化问题,该问题集成了度量信息、语义信息和数据关联。[Lightweight unsupervised deep loop closure]提出了一种新的基于特征嵌入的无监督深度神经网络结构来实现视觉闭环。[Long-term visual localization using semantically segmented images]表明语义信息比传统的特征描述符更有效。

  4. 动态SLAM
    RDSLAM(单目)是一种基于在线关键帧表示和修正方法的新型单目实时SLAM系统,能够在动态环境下鲁棒工作。DS-SLAM一个基于优化ORB-SLAM的具有语义信息的SLAM系统,语义信息可以使SLAM系统在动态环境下具有更强的鲁棒性。MaskFusion (RGB-D, 稠密点云)是一种基于Mask R-CNN的实时、对象感知、语义化、动态的RGB-D SLAM系统,它甚至可以在连续的、独立的运动中对目标进行语义标注。Detect-SLAM将SLAM与基于深度神经网络的目标检测相结合,使得这两种功能在未知动态环境中相互受益。DynaSLAM是一个支持单目、双目和RGBD的视觉SLAM系统。StaticFusion提出了一种动态环境下的鲁棒稠密的RGB-D SLAM方法,该方法在检测运动目标并同时重建背景结构。

C. 挑战与展望

  1. 鲁棒性和可移植性
    视觉SLAM面临着光照条件、高动态环境、快速运动、剧烈旋转和低纹理环境等重要障碍。对于未来的发展,首先,全局快门(global shutter)代替滚动快门(rolling shutter)是实现相机精确定位的基础。其次,利用边缘、平面、地面等语义特征,甚至减少特征依赖,如结合边缘跟踪、直接跟踪或机器学习的组合,可能成为更好的选择。第三,基于SfM/SLAM的数学机制,精确的数学公式优于隐式学习的导航函数。
    未来的展望:SLAM基于手机或嵌入式平台(如无人机–UAV),另一种是深度学习下的场景理解和三维重建。以及如何平衡系统的实时性和准确性。

  2. 多传感器融合
    实际的机器人往往是多个传感器的融合。目前对移动手机VIO的研究将视觉信息与IMU信息进行融合,实现两个传感器的优势互补,为SLAM的小型化与低成本化提供了一种可行的方案。

  3. 语义SLAM
    SLAM中的深度学习可以实现目标识别与分割,帮助SLAM系统更好的感知周围环境。语义SLAM还可以在全局优化、重定位和循环closure中起作用。

  4. 软硬件
    SLAM系统更加有效地将算法和传感器相融合。比如特有处理器,集成传感器等。

第四节:激光雷达和视觉SLAM系统

A. 多传感器标定

a) Camera & IMU
Kalibr是解决标定问题的工具箱,其中包括:多个摄像机标定, 视觉-惯性校正(camera-IMU)和滚动快门相机校正。Vins-Fusion具有在线空间校准和在线时间校准,
b) Camera & Depth
BAD SLAM提出了一个使用同步全球快门RGB和深度相机的校准基准
c) Lidar & IMU
LIO-mapping引入了一种紧密耦合的激光和IMU的融合方法。Lidar- align是一种寻找三维激光雷达和6自由度姿态传感器之间的外部校准的简单方法。
d) Camera & Lidar
[Automatic online calibration of cameras and lasers]介绍了一种概率检测算法和一种连续校准的优化器,使得相机能在线自动校准。Lidar-Camera提出了一种新颖的方法和实验装置以寻找精确的刚体变换,用于外部校准激光雷达和摄像机,使用3D-3D点对应。RegNet 是第一个在多模态传感器之间推导出6个自由度(DOF)外部校准的深度卷积神经网络。

B. 激光雷达与视觉融合

a) 硬件层 — Pandora
b) 数据层
激光雷达深度数据稀疏、精度高,而相机深度数据密集、精度低,这导致基于图像的深度上采样和修复。[Image guided depth upsampling using anisotropic total generalized variation] 提出了一种深度图像上采样方法。[In defense of classical image processing: Fast depth completion on the cpu.]仅依靠基本的图像处理操作来完成稀疏激光雷达深度数据的深度补全。
c) 任务层
[Intersection safety using lidar and stereo vision sensors]融合双目相机和激光雷达来感知。[Multiple sensor fusion and classification for moving object detection and tracking]融合雷达,激光雷达和相机来探测和分类移动的物体。

C. 挑战与未来

a) 数据融合
SLAM会融合越来越多的传感器,对不同的数据类型统一处理。还要考虑多传感器之间的物理模型建立、状态估计和优化。
B) 集成硬件
顾名思义,在硬件上集成更多功能。
c) 众包(Crowdsourcing)
分散的视觉SLAM适用于多机器人在绝对定位系统不可用的环境中工作。协同优化视觉多机器人SLAM需要分散的数据和优化,这被称为众包。
d) 高清晰度地图
地图清晰对于导航的重要性务须多言。
e) 鲁棒性、适应性、可收缩性
目前还没有一个系统可以覆盖所有的应用场景,为了在给定的场景中SLAM可以工作,多数场景都需要大量的调参。为了让机器人像人类一样感知,相比于基于特征,基于外观的工作更好,这将有助于将昼夜序列或不同季节之间的语义信息整合成闭环。
f) 抗风险和约束能力
完善的SLAM系统应具备故障安全机制和故障感知机制,这不是重定位或闭环问题。SLAM系统必须能对风险和故障做出相应补救措施。同时,SLAM系统应该能在不同的平台上运行,不用在乎平台限制。研究如何在精度、鲁棒性和有限资源之间取得平衡。
g) 应用
SLAM应用广泛,比如定位,导航,三维重建或语义地图重建、环境识别与理解、地面机器人、无人机、AR、VR、MR、AGV(自动导航车)、自动驾驶、虚拟室内设计师、虚拟试衣间、沉浸式网络游戏、地震救援、视频分割和编辑。

最后,端到端的学习会不会主导SLAM?

终终于看完了,这篇论文是南洋理工和武大的大佬写的。论文时间:2019年10月12号。本菜鸡开始涉足CNN–SLAM了,如果感兴趣的同学不如互粉一波?强行狗头······

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

SLAM综述:激光雷达与视觉SLAM(2019.10.12) 的相关文章

  • vscode_c++_slambook 编译配置

    工作目录 配置文件 launch json version 0 2 0 configurations name slamBook程序调试 type cppdbg request launch program fileDirname buil
  • ROS STAGE教程2(地图定义和GMAPPING建图)

    目前用在ROS Kinetic上的stage版本为4 1 官方教程http rtv github io Stage modules html 用户可以用stage或者gazebo来创建地图和机器人 传感器模型来进行仿真 并与自己的SLAM模
  • No rule to make target

    No rule to make target 引言 解决方法 引言 报错 No rule to make target Thirdparty g2o lib libg2o so needed by lib libygz SLAM so 停止
  • ROS激光SLAM导航理解

    ROS激光SLAM导航理解 注 最近学习ROS的激光导航知识 需要理清ROS的SLAM 环境感知 costmap 与导航算法 为防止自己忘记 将觉得有价值的内容收集于此 对AGV来说 SLAM是个大大坑 环境感知和局部运动控制也是大坑 学习
  • 激光SLAM直接线性方法里程计运动模型及标定

    原创作者 W Tortoise 原创作者文章 https blog csdn net learning tortosie article details 107763626 1 里程计运动模型 1 1 两轮差分底盘的运动模型 1 2 三轮全
  • 【大一立项】如何亲手搭建ROS小车:硬件和软件介绍

    本次博客将详细介绍上篇博客中提到的ROS小车的硬件和软件部分 由于十一实验室不开门 所以部分代码还没有上传到Github 下位机 下位机使用Arduino 因为大一上刚学完用Arduino做循迹小车 其实Arduino作为ROS小车的下位机
  • 使用EKF融合odometry及imu数据

    整理资料发现早前学习robot pose ekf的笔记 大抵是一些原理基础的东西加一些自己的理解 可能有不太正确的地方 当时做工程遇到的情况为机器人在一些如光滑的地面上打滑的情形 期望使用EKF利用imu对odom数据进行校正 就结果来看
  • SLAM评估工具evo的使用

    evo官方指南 参考博客 lt 官方手册 这篇参考博客 完全可以掌握evo的基本操作 gt Then 实践出真知 1 安装evo sudo apt install python pip pip install evo upgrade no
  • 从零开始一起学习SLAM(9)不推公式,如何真正理解对极约束?

    文章目录 对极几何基本概念 如何得到极线方程 作业 此文发于公众号 计算机视觉life 原文链接 从零开始一起学习SLAM 不推公式 如何真正理解对极约束 自从小白向师兄学习了李群李代数和相机成像模型的基本原理后 感觉书上的内容没那么难了
  • 对最小二乘法的一点理解 - slam学习笔记

    我对最小二乘法的理解 在给定参数个数和函数模型之后 根据测试数据 找出与所有测试数据的偏差的平方和最小的参数 这里面应该有两个问题 1 为什么选取与真实数据平方和最小的拟合函数 2 如何求参数 为什么选取与真实数据平方和最小的拟合函数 极大
  • 单目视觉里程记代码

    在Github上发现了一个简单的单目vo 有接近500星 链接如下 https github com avisingh599 mono vo 这个单目里程计主要依靠opencv实现 提取fast角点并进行光流跟踪 然后求取本质矩阵并恢复两帧
  • LeGO-LOAM论文翻译(内容精简)

    LeGO LOAM是一种在LOAM之上进行改进的激光雷达建图方法 建图效果比LOAM要好 但是建图较为稀疏 计算量也更小了 本文原地址 wykxwyc的博客 github注释后LeGO LOAM源码 LeGO LOAM NOTED 关于代码
  • 图像匹配算法

    图像匹配算法分为3类 基于灰度的匹配算法 基于特征的匹配算法 基于关系的匹配算法 1 基于灰度的模板匹配算法 模板匹配 Blocking Matching 是根据已知模板图像到另一幅图像中寻找与模板图像相似的子图像 基于灰度的匹配算法也称作
  • 关于GPS、惯导、视觉里程计的几个定义

    1 首先写几个定义 惯性导航系统 Inertial Navigation System INS 全球定位卫星系统 Global Navigation Satellite System GNSS GNSS 包括全球定位系统 Global Po
  • 动态场景下基于实例分割的SLAM(毕业设计开题及语义分割部分)

    动态场景下基于实例分割的SLAM 毕业论文设计思路及流水 前言 今年选了个比较难的毕设题目 这里记录一下自己思路和流程 为之后的学弟学妹 划掉 铺个方向 会按日期不定期的更新 一 开题 2019 12 24 考研前选择课题是 利用深度学习对
  • PnP 问题

    欢迎访问我的博客首页 PnP 问题 1 DLT 2 P3P 3 G2O 求解 PnP 3 1 单目 3 2 双目 4 自定义顶点与边优化内参 4 1 二元边 4 2 三元边 4 3 总结 5 参考 PnP Perspective n Poi
  • 快看!那个学vSLAM的上吊了! —— (一)综述

    不同于之前发布的文章 我将使用一种全新的方式 iPad Notability Blog的方式打开这个板块的大门 原因有两个 1 Notability更方便手写长公式 也方便手绘坐标系变换等等 2 之前Apple Pencil找不到了新破费买
  • 无人车

    1 无人车四大核心技术 自动驾驶实际包含三个问题 一是我在哪 二是我要去哪 三是如何去 第一个问题是环境感知和精确定位 无人车需要的是厘米级定位 厘米级定位是无人驾驶的难点之一 不光是车辆本身的语义级定位 还有一个绝对坐标定位 第二个问题是
  • BLAM跑自己的数据包无法显示全局点云地图解决(速腾聚创RS-LiDAR-16 雷达 )-SLAM不学无术小问题

    BLAM算法跑自己的数据包无法显示全局点云地图解决 适配速腾聚创RS LiDAR 16 雷达 提示 本文笔者使用环境Ubuntu18 04 ROS melodic版本 首先放一个效果链接 由b站up VladimirDuan上传 非官方 官
  • Eigen几何模块的使用方法

    include

随机推荐

  • Docker容器内更新apt-get 国内加速

    Docker容器内更新源apt get的方法 由于不使用国内镜像网速缓慢 xff0c 所以使用国内镜像加速就很必要了 xff0c 但是经过博主测试大部分apt get加速都是针对Ubuntu 的 xff0c 根本解决不了Docker 容器内
  • STM32F4 422串口通信

    STM32F429 422串口通信 422串口的硬件原理图如下 xff1a 422串口和232串口不同的是引脚的电平控制 xff0c 还有DE是发送使能 xff0c 置高即可 xff1a RE是接收使能 xff0c 置低即可 422接出来的
  • Java基础学习记录

    一 基础DOS操作 dir xff1a directory 列出当前目录内容 md xff1a make directory 创建目录 rd xff1a remove directory 删除目录 cd xff1a change direc
  • 6、杂项:rtk原理简要说明

    目录 x1f345 点击这里查看所有博文 随着自己工作的进行 xff0c 接触到的技术栈也越来越多 给我一个很直观的感受就是 xff0c 某一项技术 经验在刚开始接触的时候都记得很清楚 往往过了几个月都会忘记的差不多了 xff0c 只有经常
  • 树莓派控制直流电机

    古月金真 1 直流电机 直流电机是一种将直流电能转换为机械能的装置 xff0c 被广泛的用于驱动各种设备 xff0c 如电风扇 遥控小车 电动车窗等 xff0c 在控制设备运转领域中 xff0c 它是不可或缺的一种设备 小型直流电机的的电压
  • SVN创建指定版本号的分支

    SVN创建分支下面三个选择的具体含义 xff1a 最新版本 xff08 HEAD revision in therepository xff09 直接从版本库中最新创建 xff0c 由于不需要从你的工作拷贝中传输数据 xff0c 创建过程会
  • 图像降噪算法——图像降噪算法总结

    图像降噪算法 图像降噪算法总结 图像降噪算法 图像降噪算法总结 图像降噪算法 图像降噪算法总结 前面这段时间我看了几篇和图像降噪相关的Review xff0c 给我的感觉就是SLAM这一研究领域像是一片汪洋 xff0c 而图像降噪领域则是另
  • 图像降噪算法——图像噪声模型

    图像降噪算法 图像噪声模型 图像降噪算法 图像噪声模型1 图像噪声建模2 C 43 43 代码实现3 结论 图像降噪算法 图像噪声模型 1 图像噪声建模 首先 xff0c 我们要区分图像传感器噪声和图像噪声 xff0c 图像传感器噪声我在博
  • 图像降噪算法——维纳滤波

    图像降噪算法 维纳滤波 图像降噪算法 维纳滤波1 基本原理2 C 43 43 代码实现3 结论 图像降噪算法 维纳滤波 维纳滤波是在频域中处理图像的一种算法 xff0c 是一种非常经典的图像增强算法 xff0c 不仅可以进行图像降噪 xff
  • 图像降噪算法——Variance Stabilizing Transform / Generalization Anscombe Transform算法

    图像降噪算法 Variance Stabilizing Transform Generalization Anscombe Transform算法 图像降噪算法 Variance Stabilizing Transform Generali
  • 图像降噪算法——DnCNN / FFDNet / CBDNet / RIDNet / PMRID / SID

    图像降噪算法 DnCNN FFDNet CBDNet RIDNet PMRID SID 图像降噪算法 DnCNN FFDNet CBDNet RIDNet PMRID SID1 基本原理1 1 DnCNN1 2 FFDNet1 3 CBDN
  • SLAM算法总结——经典SLAM算法框架总结

    SLAM算法总结 经典SLAM算法框架总结 SLAM算法总结 经典SLAM算法框架总结 SLAM算法总结 经典SLAM算法框架总结 从研究生接触SLAM算法到现在也有两三年了 xff0c 期间学习了很多经典的SLAM算法框架并写了一些相关的
  • 计算机视觉算法——基于Anchor Free的目标检测网络总结

    计算机视觉算法 基于Anchor Free的目标检测网络总结 计算机视觉算法 基于Anchor Free的目标检测网络总结1 CornerNet1 1 关键知识点 网络结构及特点1 2 关键知识点 正负样本匹配1 3 关键知识点 损失计算
  • 计算机视觉算法——基于Transformer的语义分割(SETR / Segmenter / SegFormer)

    计算机视觉算法 基于Transformer的语义分割 xff08 SETR Segmenter SegFormer xff09 1 SETR1 1 网络结构及特点1 1 1 Decoder 1 2 实验 2 Segmenter2 1 网络结
  • 计算机视觉算法——基于深度学习的高精地图算法(HDMapNet / VectorMapNet / MapTR / VectorNet)

    计算机视觉算法 基于深度学习的高精地图算法 xff08 HDMapNet VectorMapNet MapTR VectorNet xff09 计算机视觉算法 基于深度学习的高精地图算法 xff08 HDMapNet VectorMapNe
  • VINS-Mono关键知识点总结——前端详解

    VINS Mono关键知识点总结 前端详解 VINS Mono关键知识点总结 前端详解1 VINS Mono的前端流程概述2 setMask 函数的作用3 rejectWithF 函数的作用4 addPoints 函数和 updataID
  • Px4源码框架结构图

    此篇blog的目的是对px4工程有一个整体认识 xff0c 对各个信号的流向有个了解 xff0c 以及控制算法采用的控制框架 PX4自动驾驶仪软件 可分为三大部分 xff1a 实时操作系统 中间件和飞行控制栈 1 NuttX实时操作系统 提
  • 深蓝学院《从零开始手写VIO》作业五

    深蓝学院 从零开始手写VIO 作业五 1 完成Bundle Adjustment求解器2 完成测试函数3 论文总结 1 完成Bundle Adjustment求解器 完成单目 Bundle Adjustment 求解器 problem cc
  • VIO在走廊弱纹理环境下的优化——VINS-Mono的点线紧耦合优化

    VIO在走廊弱纹理环境下的优化 VINS Mono的点线紧耦合优化 VIO在走廊弱纹理环境下的优化0 前言1 思路概述1 1 Super Pixel SLAM1 2 Edge SLAM1 3 PL SLAM 2 算法实施2 1 Edge S
  • SLAM综述:激光雷达与视觉SLAM(2019.10.12)

    本文基于https arxiv org pdf 1909 05214v2 pdf 进行阐述 xff08 其实差不多就是精简版翻译 xff09 第一节概述 第二节讲述激光SLAM xff1a 激光传感器 xff0c 开源系统 xff0c 深度