视觉Transformer中的位置编码方式

2023-05-16

绝对位置编码

基本形式:x = x + p

可学习的绝对位置编码(ViT)

ViT中提出的位置编码方式简单粗暴,设置一组可学习的编码tokens,并在patch embeding后逐元素相加,在训练阶段一起训练。这种方式的不足是序列化长度固定了,在遇到较大分辨率图像时可以对学习好的positional embedding进行插值然后对模型进行fine-tune。
在这里插入图片描述

条件位置编码(CPVT)

本文针对上述问题,提出了一种利用卷积核自适应地根据输入图片的tokens长度生成positional embedding的方法。同时文章也研究了位置编码放置的位置和不同layer之间是否共享位置编码对模型性能的影响。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

其他方法

如,从BETR-3中借鉴过来的正余弦位置编码方式。

相对位置编码

基本形式:在这里插入图片描述

Shaw’s RPE

在一定距离范围内,设置可学习的位置嵌入对
在这里插入图片描述

RPE in Transformer-XL.

u和v是两个可学习的向量,s是正弦先验偏置项,用于引入先验位置信息。
在这里插入图片描述

Huang’s RPE

query和key共享编码向量,同时考虑了query和key的交互以及正弦先验位置信息。
在这里插入图片描述

image Relative Positional Embedding paper report

本文深入研究了相对位置编码中的上下文关系、编码的方向性、编码共享、截断函数的影响,还比较了绝对编码与相对编码混合使用的效果。
首先,作者使用了统一的形式来表示偏置编码和上下文编码。
在这里插入图片描述
然后,作者设计了欧氏距离、量化、十字交叉和乘积四种形式的r,分别对应了无、有相对方向的考虑。
在这里插入图片描述
例如,对于上图这种十字交叉的r形式,分别计算了相对位置在x和y上的距离,并通过分段函数进行索引映射,从而找到可学习的位置嵌入向量p,并加和得到最终的r。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

视觉Transformer中的位置编码方式 的相关文章

随机推荐