论文笔记:Deep Representation Learning for Trajectory Similarity Computation

2023-10-29

ICDE 2018

1 intro

1.1 背景

  • 用于计算轨迹相似性的成对点匹配方法(DTW,LCSS,EDR,ERP)的问题:
    • 轨迹的采样率不均匀
      • 如果两个轨迹表示相同的基本路径,但是以不同的采样率生成,那么这些方法很难将它们识别为相似的轨迹
    • 当样本点的采样率很低时,很难对齐相似轨迹的样本点
    • 当样本点噪声时,这些方法的性能可能会下降。
    • 复杂度大O(n^2)【n是轨迹长度】

1.2 论文贡献

  • 论文提出t2vec,基于深度表示学习推断和表示轨迹的基本路径信息
    • 通过利用存档的历史轨迹数据和一个新的深度学习框架来实现的
    • 计算两个轨迹之间的相似性只需要线性时间O(n + |v|) (|v|是向量v的长度)
  • 为了学习轨迹表示,自然地考虑使用RNN。但是简单地应用RNNs来嵌入轨迹是不切实际的
    • 使用RNNs获得的表示不能在由于低采样率或噪声引起的不确定性下揭示轨迹的最可能的真实路径
      • ——>提出了一个seq2seq模型,以最大化恢复轨迹真实路径的概率
    • 用于训练RNNs的现有损失函数没有考虑空间接近性
      • ——>设计了一个空间接近性感知的损失函数和一个单元预训练算法,鼓励模型为由相同路径生成的轨迹学习一致的表示’
  • 还提出了使用噪声对比估计的近似损失函数,以提高训练速度

2 问题定义和preliminary

2.1 定义

  • 基本路径
    • 基本路径是一个连续的空间曲线,表示对象所走的确切路径
    • 本路径只是一个理论概念,因为位置获取技术不连续地记录移动位置
  • 轨迹
    • 轨迹T是从移动对象的基本路径中得到的样本点的序列

2.2 问题定义

  • 给定一组历史轨迹,我们的目标是为每个轨迹T学习一个表示v∈Rn,使得该表示可以反映轨迹的基本路径,用于计算轨迹相似性

2.3 sequence encoder-decoder

  • 两个序列x=<x_t>_{t=1}^{|x|},y=<y_t>_{t=1}^{|y|},其中每个xt​ 和 yt​ 表示一个token

  • 编码器用于将序列x编码为一个固定维度的向量v,该向量保留了x中的顺序信息,然后解码器根据编码的表示v解码出序列y
  • RNN接受实值向量形式的输入,因此添加了一个token嵌入层来将离散token嵌入到一个向量中

  • 计算P(y|x)【链式法则】
      • 由于v编码了x中的顺序信息,我们有:
      •  
        • EOS是一个特殊的token,表示序列的结束

3 方法

  • 基本路径R在实践中通常是不可用的,为了绕过这个问题,论文利用两个观察
    • 非均匀、相对低采样率轨迹,表示为Ta;相对高采样率轨迹,表示为Tb
    • 相对高采样率的轨迹Tb比Ta更接近它们的真实基本路径R,它的不确定性更低
  • ——>最大化P(R∣Ta) 的目标替换为最大化P(Tb∣Ta)
  • 编码器将Ta嵌入到其表示v中,然后解码器将尝试恢复其相对高采样率的配对Tb

3.1 处理变化的采样率和噪声

  • 给定一组轨迹集合\{T_b^{​{(i)}}\}_{i=1}^N
    • N是集合的元素数量
    • 创建一组对 (Ta, Tb),其中Tb是一个原始轨迹,Ta是通过从Tb中随机丢弃样本点(丢弃率为r1)获得的
    • ——>每一个下采样的Ta也是非均匀采样的,因此代表一个具有非均匀和低采样率的实际轨迹
    • Tb的起点和终点在Ta中得到保留,以避免改变下采样轨迹的基本路径
  • 生成过程之后,我们使用序列编码器-解码器模型最大化所有(Ta, Tb)对的联合概率:
  • 在序列编码器-解码器模型中,输入应该是离散token的序列
    • 将空间分割成等大小的单元,并将每个单元视为一个token
    • 所有落入同一单元的样本点都被映射到同一token
      • ——>有助于克服非均匀和低采样率的问题
  • 现实的轨迹也可能有噪声样本点
    • 为了消除噪声样本点的影响,只保留被超过δ个样本点击中的单元
    • 这些单元被称为热单元,并形成最终的词汇V
    • 样本点由它们最近的热单元表示
  • 为了使学习到的表示对噪声数据更加鲁棒,我们进一步扭曲每一个下采样的Ta,基于一个扭曲率r2来创建扭曲的变体
    • 随机采样一部分点(由r2指示的大小),然后扭曲它们

3.2 学习表征

  • 原始的序列编码器-解码器并没有对单元间的空间关联进行建模
  • ——>论文提出了一个新的空间接近性感知损失函数和一个新的考虑空间接近性的单元表示预训练方法。
  • ——>为了进一步提高训练效果,还提出了基于噪声对比估计的近似损失函数

3.2.1 空间接近性感知损失函数

  • 损失函数的差异会鼓励模型学习不同的表示[32]
  • NLP中的损失函数大多为NLL
      • 简单地采用这个损失函数对于时空数据是有问题的
        • 图3中有两个从同一路线 R 生成的轨迹 Tb 和 Tb′ (在坐标转换为单元后,它们的对应序列分别是 y 和 ′y′ )
        • 轨迹的样本点交错在我们的空间分区中的单元
        • 设 Ta 和 Ta′ 分别表示 Tb 和 Tb′ 的子轨迹
          • 理想情况下,为 Ta 和 Ta′ 学习到的表示应该是相似的,因为它们都是从路线 R 生成的
          • 方程4中的NLL损失函数将 Tb 和 T′b 区分为两个相同的目标轨迹,因此它不能发现 Ta 和 T′a 之间的相似性
          • ——>这是因为方程4中的损失函数对输出单元进行了等权重的惩罚
          • 直观地说,接近目标的输出单元应该比远离目标的输出单元更可接受
            • 如果解码的目标单元是y3,损失函数会对输出y′3和y1进行相同的惩罚。这不是一个好的惩罚策略。
            • 因为y′3在空间上离y3更近,所以对于解码器输出y′3而不是输出y1来说,这是更可接受的
  • ——>空间接近性感知损失函数背后的直觉是,当我们试图从解码器解码目标单元yt时,我们为每个单元分配一个权重
    • 单元u ∈ V的权重与其与目标单元yt的空间距离成反比,因此单元离yt越近,我们将为其分配的权重越大
  • 尽管方程5中的空间接近性感知损失函数帮助我们为从同一路线生成的轨迹学习一致的表示,但每次我们解码目标yt时,都需要对整个词汇进行两次求和:
    • 当词汇大小 ∣V∣ 很大时,训练模型的成本将会很高(时间复杂度O(|y|×|V|)

3.2.2 近似空间接近性感知损失函数

  • 为了减少训练成本,根据以下两个观察设计了一个近似的空间接近性感知损失函数
    • 除了接近目标单元 yt 的单元外,大多数 wuyt​ 都非常小
      • 仅使用 yt 的K个最近的单元
    • 不需要计算方程6中的对数概率的确切值,只要我们可以鼓励解码器将概率分配给接近目标单元的单元
      • 使用噪声对比估计(NCE)来计算方程6中的对数概率
      • 类似于负采样
        • 从V−NK(yt) 随机抽样得到一小部分单元作为噪声数据来近似地最大化
    • ——>时间复杂度从O(∣y∣×∣V∣) 降低到O(∣y∣)

3.3 预训练单元表示

  • 为了进一步确保由相同路线生成的轨迹在潜在空间中有接近的表示,论文提出了一个单元表示学习算法,用于预训练模型嵌入层中的单元
    • 为空间上接近的单元学习相似的表示
  • 有两种直接的单元表示,都存在问题
    • one-hot
      • 失去了单元的空间距离关系,因为所有单元都被独立对待
      • 所提出的模型可能需要更多的训练时间来在单元嵌入层中发现空间关系
    • 单元的质心坐标(GPS坐标)
      • 自然地为单元编码了空间接近性
      • 但是将表示限制在一个二维空间中,这使得损失函数很难在它们的参数空间中进一步优化表示
  • 借鉴skip-grams捕获单元空间接近性
    • skip-grams背后的直觉是,意义相似的词语往往在相同的上下文中出现,如果我们使用一个词的表示来预测其周围的词,那么我们可以以一种捕获词语之间的语义距离的方式将词嵌入到欧几里得空间中
    • 论文通过根据对单元随机采样其邻居u′ ∈ NK(u)(也只考虑其K个最近的邻居),为给定的单元u ∈ V创建上下文
  • 此单元采样分布与方程5中的空间接近性权重类似
    • 他们的θ值不必相等
  • 对于每个单元u∈V,单元采样分布倾向于采样与其空间接近的单元作为其上下文
    • 通过最大化观察到给定单元u的其上下文中的相邻单元的对数概率C(u)

3.4 复杂度

需要O(n)时间将轨迹嵌入到一个向量中

O(|v|)比较两个向量的欧几里得距离,来衡量两个轨迹的相似性

衡量两个轨迹之间的相似性的时间复杂性为O(n + |v|)

4 实验

4.1 数据集

  • 波尔图轨迹
    • 19个月,包含170万轨迹
    • 每辆出租车每15秒报告一次其位置
    • 移除了长度小于30的轨迹,得到了120万轨迹
  • 哈尔滨轨迹
    • 8个月内从13,000辆出租车中收集的轨迹
    • 选择长度至少为30的轨迹,并且连续采样点之间的时间间隔小于20秒。这产生了150万轨迹

4.2 衡量标准

  • 相似轨迹搜寻
    • 从测试数据集中随机选择10,000个轨迹,记为Q
    • 选择另外m个轨迹,记为P
    • 对于每一个轨迹Tb ∈ Q,我们通过从中交替取点来创建它的两个子轨迹,分别记为Ta和Ta′,并使用它们构建两个数据集DQ = {Ta}和D′ Q = {Ta′ }
    • 对P中的轨迹执行相同的转换,得到DP和D′ P
    • 然后,对于每一个查询Ta ∈ DQ,我们从数据库D′ Q ∪ D′ P中检索其前k个最相似的轨迹,并计算Ta′的排名
  • 理想情况下,Ta′应该排在最前面,因为它是由与Ta相同的原始轨迹生成的
  • 使用D′ Q ∪ D′ P作为数据库而不是D′ Q ∪ P的原因是,查询轨迹的平均长度与数据库中的轨迹相似(使用D′ Q ∪ P也有类似的结果)

4.3 结果

4.3.1 mean rank

4.3.1.1 和m(P的大小)相关的结果

4.3.1.2 和downsampling rate 相关的结果

4.3.1.3 和distorting rate相关的结果

4.3.2 交叉相似性比较

一个好的相似性度量不仅应该能够识别同一基本路线的轨迹变体(自相似性),而且还应该保留两个不同轨迹之间的距离,而不考虑采样策略

计算如下:

Tb 和Tb′ 表示两个不同的原始率轨迹,Ta(r) 和Ta′(r) 是通过随机丢弃(或扭曲)样本点获得的其变体,其中丢弃(或扭曲)率为 r。

从测试数据集中随机选择10,000个轨迹对 (Tb,Tb′) 来计算它们的平均交叉距离偏差。较小的交叉距离偏差表示评估的距离非常接近真实值。

4.3.3 KNN 查询

  • 随机选择1000条轨迹作为查询,从测试数据集中选择10,000条轨迹作为目标数据库
    • 应用每种方法从目标数据库中找到每个查询轨迹的k个最近邻居(k-nn)作为其基准真值
    • 接下来,根据丢弃率r1(或扭曲率r2)随机丢弃或扭曲查询和数据库轨迹的某些样本点
    • 最后,对于每个变换后的查询,我们使用每种方法从目标数据库中找到其k-nn,然后将结果与相应的基准真值进行比较
  • 这种方法背后的逻辑是,一个鲁棒的距离测量应该适应非均匀和相对较低的采样率(或扭曲),并产生接近相对较高采样率(或非扭曲)的结果

4.3.4 延展性

4.3.5  网格数量的影响

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

论文笔记:Deep Representation Learning for Trajectory Similarity Computation 的相关文章

随机推荐

  • 【Anaconda】安装软件包时Solving environment卡住很长时间

    多数情况下的原因 安装该库需要考虑各软件包的兼容性 可能导致的无法安装的情况 可能解决方法 方法一 创建一个新的 python 环境 只安装代码中需要的库 conda create n name python version conda a
  • Matlab:筛选满足指定条件的数组元素

    Matlab 筛选满足指定条件的数组元素 在Matlab中 我们可以使用一些函数来筛选满足特定条件的数组元素 这些函数包括 find logical 和 indexing 等 下面以一个简单的实例来说明如何查找符合条件的数组元素 假设有一个
  • 判断应用或Activity是否存在

    一 判断应用是否存在 方法一 通过usb连接的方式 使用adb命令查看已安装的文件列表 adb shell pm list package 然后通过查看列表里是否含有对应的应用名来判断是否安装某应用 列表如下 adb shell pm li
  • Qt 数据类型转换 QString转Quint16

    如使用了QString存储用户输入的数据 数据类型 指的是quint16 qint16 float quint32 qint32等 可供用户自己选择的 而最终要使用的数据类型是quin16 下面是各种类型的转换 一 QString strV
  • Apache commons exec框架的简介说明

    转自 Apache commons exec框架的简介说明 下文笔者讲述Apache commons exec框架的简介说明 如下所示 Apache commmons exec框架的功能 Apache commons exec框架是对 Pr
  • Linux进程间通信——使用匿名管道

    本文介绍另一种进程间通信的方式 匿名管道 通过它进程间可以交换更多有用的数据 一 什么是管道 如果你使用过Linux的命令 那么对于管道这个名词你一定不会感觉到陌生 因为我们通常通过符号 来使用管道 但是管理的真正定义是什么呢 管道是一个进
  • SVG生成页面水印

    svg生成页面水印 灰信网 软件开发博客聚合
  • ElasticSearch基本操作

    文章目录 1 ElasticSearch 简介 2 索引库操作 2 1 mapping 属性 2 2 索引库CRUD 3 文档操作 3 1 新增文档 3 2查询文档 3 3删除文档 3 4修改文档 4 RestClient 4 1准备工作
  • C/C++静态变量static详解

    静态变量作用范围在一个文件内 程序开始时分配空间 结束时释放空间 默认初始化为0 使用时可以改变其值 静态变量或静态函数只有本文件内的代码才能访问它 它的名字在其它文件中不可见 用法1 函数内部声明的static变量 可作为对象间的一种通信
  • 数据挖掘 NO.1 数据挖掘入门

    1 机器学习 代价函数 m是样本数量 直到最后得到的值收敛或者样本使用完 1 定义代价函数 2 对每个参数求偏导数 3 使用梯度下降算法更新 数据集先开始进行划分 解决OVERFITTING 1 在测试集评估模型 2 Regelizatio
  • Hibernate之多对多级联查询、新增、删除

    以书籍与书籍类别为例 一本书可以有多种类型 一种类型也可以对应多本书 书籍和书籍类别的关系是多对多的关系 他们的关系是在中间表里面的 多对多通过一个表找到另一个表的数据的条件为 中间表 中间表对应本表的外键 中间表对应关联表的外键 注 多对
  • 使用picgo配置图床使用

    图床这种东西 做博客是必须要的 这里我记录目前我使用的几种图床 方便以后使用 以后有新的好用的 也会相应的更新 sm ms图床 免费的sm sm ms图床 好用 速度还可以 下面图片是sm图 可以感受一下速度 csdn图床 csdn这个社区
  • 【裸机开发】I2C 通信接口(二)—— I2C 寄存器解析

    目录 一 硬件原理图分析 二 IO 复用寄存器解析 三 I2C 寄存器解析 3 1 时钟配置 3 2 I2C1 IADR 设置从机地址 3 3 I2C1 IFDR 设置分频值 3 4 I2C1 I2CR I2C使能 中断控制 3 5 I2C
  • ArcPy批量计算栅格数据平均值

    遥感数据处理系列 一些项目及科研中遇到的小需求 一方面记录自己的学习历程 另一方面帮助大家学习 本系列文章的开发环境为 ArcGIS 10 2 2 Python 2 7 ENVI 5 3 IDL 8 5 ArcPy批量计算栅格数据平均值 G
  • Keil C51从汇编跳转到main函数编译器报错ERROR L127: UNRESOLVED EXTERNAL SYMBOL的解决办法

    51单片机系列教程主仓库地址 https gitee com langcai1943 8051 from boot to application 遇到的问题1 如果你自建的汇编原文件不是以Keil默认的 A51或者 s S结尾 而是以 as
  • 华为手机连电脑当摄像头用_华为手机摄像头还能这样用!300页文档轻松电子化,堪称职场法宝...

    华为手机摄像头还能这样用 300页文档轻松电子化 堪称职场法宝 我们生活中经常会使用相机记录一些美好的瞬间 可是你知道吗 华为手机摄像头还能这样用 300页的纸质文档可轻松电子化 堪称职场法宝 使用过华为手机的朋友们 应该都知道华为手机的拍
  • 三极管使用详解

    扣扣技术交流群 460189483 PNP型的三极管使用方法 常见的三极管为9012 s8550 9013 s8050 单片机应用电路中三极管主要的作用就是开关作用 其中9012与8550为pnp型三极管 可以通用 其中9013与8050为
  • Ubuntu需要运行networkmanager的解决方法

    问题 在使用ubuntu时无法联网 打开网络设置发现如下情况 解决方法 打开终端 输入su 获取管理员权限 然后输入systemctl start NetworkManager service 完成后即可正常联网了 新问题 每次开机后都需要
  • 元器选型攻略之 电感

    电子元器件领域电阻 电容 电感被称为 三剑客 其中电感又被称为 渣男 什么是电感 提到电感 离不开电感线圈这个名词 即用绝缘导线绕制而成的电磁感应元件 要理解电感 首先了解几个名词 感生 变化 改变 让我们回到高中课本 1 当一个导体相对磁
  • 论文笔记:Deep Representation Learning for Trajectory Similarity Computation

    ICDE 2018 1 intro 1 1 背景 用于计算轨迹相似性的成对点匹配方法 DTW LCSS EDR ERP 的问题 轨迹的采样率不均匀 如果两个轨迹表示相同的基本路径 但是以不同的采样率生成 那么这些方法很难将它们识别为相似的轨