无人机轨迹学习问题

2023-11-03

无人机轨迹学习,路径跟踪方案

个人总结:

1.强化学习:建立一种奖励机制,它最符合人类的学习机制,学习一个最优策略(policy),可以让本体(agent)在特定环境(environment)中,根据当前的状态(state),做出行动(action),从而获得最大回报(G or return)。

2.RBF Neural Networks:RBF神经网络是一种性能优良的前馈型神经网络,RBF网络可以任意精度逼近任意的非线性函数,且具有全局逼近能力. RBF神经网络可以根据具体问题确定相应的网络拓扑结构,具有自学习、自组织、自适应功能,它对非线性连续函数具有一致逼近性,学习速度快,可以进行大范围的数据融合,可以并行高速地处理数据。

对环境进行建模,在网络中分布各个节点,通过碰撞函数分析与碰撞物碰撞的几率,通过距离函数计算到目标点的距离,在两个函数的作用下,无人机趋向于最优路径。因自身具有学习能力,对环境的改变也能够适应;

3.蚁群算法:基于概率的路径规划算法,前期收敛速度慢,容易陷入局部最优点,但对运算要求不高;

4.人工势场法:基本思想是将物理空间的障碍物抽象为斥力场,将目标点抽象为引力场,障碍物排斥无人机防止其碰撞,目标点吸引无人机使其向终点飞行。不需要建立复杂的环境模型,结构简单,运算量比较小,能够实时处理并反馈信息,但这种方法存在陷入局部最小值的情况,无人机在斥力场周围徘徊,找不到目标点的路径;改进算法就是在无人机和目标点的距离作为一个因子,加入到斥力场函数中,使得目标点不论在任何情况下都是全局势场最小的点,这样就能脱离局部最小值的束缚;

Adaptive trajectory tracking neural network control with robust compensator for robot manipulators

提出了一种基于径向基函数(RBF)的自适应轨迹跟踪神经网络控制方法,用于具有鲁棒补偿器的n连杆机器人机械手实现高精度的位置跟踪。为了保证控制系统的稳定性和鲁棒性,由于摩擦力、外部干扰误差和参数变化等原因,设计一种能够实现精确轨迹跟踪和良好控制性能的合适控制方案的困难之一是。针对这一问题,研究了基于RBF网络的n连杆机器人关节位置控制问题。RBF网络由于其快速学习算法和更好的逼近能力,在这类问题中显示了巨大的前景。自适应RBF网络能够有效地提高系统在大不确定性下的控制性能。利用反向传播算法和李雅普诺夫稳定性定理,推导出网络参数的自适应转向规律,保证了整个系统的稳定性和权值自适应的收敛性。在该控制方案中,鲁棒补偿器作为辅助控制器,在质量变化、外部干扰和建模不确定性等各种环境下,保证系统的稳定性和鲁棒性。

Improvement of Tracking Control of a Sliding Mode Controller for Robot Manipulators by a Neural Network

本文提出了一种神经网络控制技术,在非模型框架下利用滑模控制方法提高机器人机械手的跟踪性能。

Intelligent Leaning and Control of Autonomous Mobile Robot using MLP and RBF based Neural Network in Clustered Environment

利用智能多层感知器(MLP)和径向基函数(RBF)神经网络技术,研究了自主移动机器人的运动控制问题。避障和目标寻找是本研究中最重要的两种行为。基于ANN的控制器采用100种训练模式进行训练,使移动机器人在未知环境下不与障碍物发生碰撞而向目标移动。通过MATLAB仿真,对控制器的性能进行了仿真研究。

在环境中考虑了迷宫型障碍物,从路径长度和导航训练机制的速度两个方面验证了算法的有效性。移动机器人路径在未知环境下的结果表明,与MLP网络相比,RBFN产生的路径最短。此外,RBF网络在导航过程中还具有更高的收敛速度。

Automatic Path Planning for an Unmanned Drone with Constrained Flight Dynamics

​ 提出了一种基于无人机飞行动力学模型和控制约束的路径几何约束估计方法。在此基础上,提出了一种考虑几何约束的新的寻路方法,并对其进行了理论和实证研究。

蚁群算法:

  1. 提出基于视场蚁群算法的机器人全局路径规划算法,建立局部信息素扩散模型及信息素扩散栅格表,将当前路径的信息素沿机器人在该路径点所受虚拟视场力方向,向邻近路径平滑扩散,将其叠加于全局信息,保证了信息素的光滑性,同时增强了隐含全局最优路径所在子空间的信息素浓度,加强蚂蚁个体间的协作能力,降低了蚁群算法的复杂度及深度(迭代次数和运行时间)。

  2. 蚁群是经过群体中个体之间的协作行为及启发信息寻找到全局最优路径,蚂蚁个体是以前几代蚂蚁在所经过路径上留下与其路径长度成反比的信息素作为先验知识和协作媒介,在信息素挥发机制下趋向于选择具有较强信息素的路径,并释放自己的信息素,这种正反馈机制使得问题的解不断向全局最优解方向进化,最终蚁群算法收敛于一条全局最优路径或者近似最优路径。

  3. 缺陷:蚂蚁个体必须在数次接触障碍物后,通过逐步降低近障碍物区域的信息素浓度完成对障碍物的规避;

卷积神经网络:

  1. 卷积神经网络,是一种前馈神经网络,人工神经元可以响应周围单元,可以进行大型图像处理。卷积神经网络包括卷积层和池化层。

  2. CNN主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。由于CNN的特征检测层通过训练数据进行学习,所以在使用CNN时,避免了显式的特征抽取,而隐式地从训练数据中进行学习;再者由于同一特征映射面上的神经元权值相同,所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势。卷积神经网络以其局部权值共享的特殊结构在语音识别和图像处理方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类过程中数据重建的复杂度。

RBF神经网络:

和普通的三层神经网络,RBF 神经网络的区别在中间层。中间层采用 RBF Kernel 对输入作非线性变换,以便输出层训练线性分类器。

其实在深度学习出现之前,RBF神经网络就已经提出了 2-stage training。

第一阶段为非监督学习,从数据中选取记忆样本(图四中的紫色中心)。例如聚类算法可在该阶段使用。

第二阶段为监督学习,训练记忆样本与样本输出的联系。该阶段根据需要可使用 AD/BP。

小结:

  1. RBF神经网络的训练过程可以使用BP,因此应纳入BP神经网络的范畴。

  2. RBF神经网络的训练分两阶段,这一点类似深度学习,且使RBF神经网络不同于SVM with RBF kernel。

两者最重要的区别:1 中间层神经元的区别。2 中间层数的区别。3 运行速度的区别。

BP_NN 的训练方式:

第一步 随机取输入值

第二步 估计输出结果跟目标的误差。

第三步 改变每层每个神经元的权重(weight) 。以求更小误差。

(Perceptron神经元的权重:就是每个神经元的输出对总的输出占多大的分量。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

无人机轨迹学习问题 的相关文章

随机推荐

  • 基于深度卷积神经网络的小样本分割算法综述

    点击上方 小白学视觉 选择加 星标 或 置顶 重磅干货 第一时间送达 本文转自 视学算法 介绍 深度卷积神经网络在图像分类 目标检测 语义分割等许多视觉理解任务上都取得了重大突破 一个关键的原因是大规模数据集的可用性 比如 ImageNet
  • Git使用个人访问令牌提交代码到仓库

    2021年8月13日开始 GitHub在使用Git操作远程仓库时不再支持使用用户名密码形式进行身份验证 需使用个人访问令牌 使用Git操作GitHub仓库时使用用户名密码进行身份验证会报错 一 创建个人访问令牌 1 1 在GitHub官网右
  • 复习:详解函数重载

    什么是函数重载 一组函数 处于同一个作用域 其中函数名相同 参数列表的个数或类型不同 那么这一组函数就成为函数重载 一组函数要称得上函数重载 一定是处在同一个作用域中函数名同 参数列表同 返回值不同 不叫重载 因为函数符号都相同函数重载是通
  • sprintf与snprintf区别

    sprintf的原型如下 int sprintf char str const char format sprintf是字符串格式化命令 主要功能是把格式化的数据写入字符串str中 返回值为写入str的字节数 结束字符 0 不计入内 其中
  • 用户交易数据分析 - 投资绩效归因分析-Brision模型

    1 模型介绍 通过业绩归因 能够更加清楚组合的收益究竟来源于什么 进而知道这种获取超额收益的能力是否能够持续 也能够明白组合发生剧烈波动的原因 从而改进策略 Brision模型中 将组合的收益分四部分 选股收益 在资产类别 或板块 内部 超
  • spring boot 之JPA详解

    JPA参考文档 JPA详解 jpa之分页 本地sql查询 注意表名啥的都用数据库中的名称 适用于特定数据库的查询 public interface UserRepository extends JpaRepository
  • Qt 槽机制:public slots 和 private slots

    今天在写Qt图片浏览器的时候 遇到了一个问题 Qt的界面是对的 但是功能却怎么也实现不了 点击开始按钮 无法显示打开文件夹的对话框 开始以为是信号连接或者是函数写错了 检查了好久都不知道问题在哪 最后 对着书上的代码一行行研究 才发现问题在
  • k8s第二节 Kubernetes入门、安装、创建Deployment、Service、pod调度 污点taint

    一 k8s的集群架构与组件 k8s也是一个Master 多个node节点 下面是kubernetes结婚的架构与组件 1 1 master组件介绍 组件名称 介绍 kube apiserver Kubernetes API 集群的统一入口
  • cgo+gSoap+onvif学习总结:2、wsl编译安装gSoap

    cgo gSoap onvif学习总结 2 wsl编译安装gSoap 文章目录 cgo gSoap onvif学习总结 2 wsl编译安装gSoap 1 前言 2 gSoap编译安装 wsl环境编译安装 3 最后 1 前言 结合官网安装教程
  • 用VB制作一个AI聊天机器人(001)

    从现在开始 我们要用VB做一款聊天机器人 材料 VB6 0 准备 拉出2个text控件 一个command控件 代码可以这样写 仅供参考 Private Sub Command1 Click If InStr LCase Text1 Tex
  • 简单聊一聊磁珠,电感和0R电阻

    磁珠 磁珠的材料是铁镁或铁镍合金 一般这些材料具有有很高的电阻率和磁导率 在高频率和高阻抗下 电感内线圈之间的电容值会最小 磁珠通常只适用于高频电路 因为在低频时 它们基本上是保有电感的完整特性 包含有电阻性和电抗性分量 因此会造成线路上的
  • 腾讯云16核服务器配置大全_16核CPU型号性能测评

    腾讯云16核CPU服务器有哪些配置可以选择 可以选择标准型S6 标准型SA3 计算型C6或标准型S5等 目前标准型S5云服务器有优惠活动 性价比高 计算型C6云服务器16核性能更高 轻量16核32G28M带宽优惠价3468元15个月 腾讯云
  • 在Vim中配置C++环境和插件

    介绍 本文章讲述了如何用coc nvim来安装coc clang插件 和如何安装前置要求 clangd npm nodejs 并配置 vimrc文件和clangd路径来让vim可以autofill cpp 目录 介绍 1 配置 vimrc
  • nc命令介绍

    一 简介 nc是netcat的简写 被用作一个简单 可靠的网络工具 二 作用 实现任意TCP UDP端口的侦听 nc可以作为server以TCP或UDP方式侦听指定端口 端口的扫描 nc可以作为client发起TCP或UDP连接 机器之间传
  • C++ Char操作

    C Char操作 1 字符处理函数 isalpha ch 如果ch是一个字母 返回非 int 0值 否则 返回 int 0 isalnum 判断是否是字母或者数字字符 isdigit 判断是否是数字字符 0 9 islower 判断是否是小
  • CentOS 查看系统版本和位数

    查看系统版本 方法一 cat etc redhat release 方法二 cat proc version 方法三 uname a 查看系统位数 64 or 32 方法一 getconf LONG BIT 方法二 file bin ls
  • Windows——Active Directory域服务安装与测试

    实验原理 在Windows server 2008 上安装域并创建域用户 将Win7加入到该域中 然后用域账户登录以及用Win7本地账户登录Win7 实验环境 Windows server 2008 域控制器 Win7 加入域的PC 在开始
  • Java线程:新特征-障碍器

    本文转载至 http lavasoft blog 51cto com 62575 222738 Java5中 添加了障碍器类 为了适应一种新的设计需求 比如一个大型的任务 常常需要分配好多子任务去执行 只有当所有子任务都执行完成时候 才能执
  • 多线程面试题摘选

    多线程面试题摘选 一 概念性问答题 1 线程的基本概念 线程的基本状态及状态之间的关系 答 线程是指在程序执行过程中 能够执行程序代码的一个执行单位 每个程序至少都有一个线程 也就是程序本身 java线程的基本状态 运行 就绪 挂起 结束
  • 无人机轨迹学习问题

    无人机轨迹学习 路径跟踪方案 个人总结 1 强化学习 建立一种奖励机制 它最符合人类的学习机制 学习一个最优策略 policy 可以让本体 agent 在特定环境 environment 中 根据当前的状态 state 做出行动 actio