Bottom-Up and Top-Down Attention
附:论文下载地址
主要贡献
- 提出了一个新的LSTM组合模型,包括了attention LSTM和language LSTM 两个组件。在这个组合模型的基础上引入spatial attention机制(类似于《show,attend and tell》的top-down attention机制)。
- 引入了bottom-up,bottom-up机制基于 Faster R-CNN提取出图像区域,每个区域具有相关的特征向量。
- 为了提升提取特征的能力,对Faster R-CNN的输出和损失函数做了添加,设计了属性分类的部分,获得对对象的(属性,对象)的二元描述。这样的描述更加贴合实际应用。
1. Introduction
自上而下的视觉注意机制已被广泛用于图像描述和视觉问答,通过细粒度分析甚至多步骤推理来实现更深入的图像理解。在这项工作中,作者提出了一种自下而上和自上而下相结合的注意力机制,使得注意力能够在物体和其他显著图像区域的水平上被计算。在该方法中,将非视觉或特定任务上下文驱动的注意力机制称为自上而下,将纯视觉前馈注意机制称为自下而上, 自下而上的机制(基于Faster R-CNN)提取出图像区域,每个区域都有一个相关的特征向量,而自上而下的机制确定特征权重。
从图中可以看出CNN是将图片等分成网格图像区域,需要使用比Faster R-CNN更多的特征,而且很多额特征往往是无用的。Faster R-CNN的目标检测方法,首先针对图像获取兴趣区域,然后对每个兴趣区域应用目标检测器,这样就可以准确的获得图像类别;而CNN方法需要输入整幅图像,而且用于大样本分类的网络往往很复杂,计算量更大。
2. Approach
给定一个图像I,图像描述模型和VQA模型都将一组可变大小的k个图像特征
V
=
{
v
1
,
…
,
v
k
}
,
v
i
∈
R
D
V = \{ v_1,\ldots,v_k\},v_i∈R^D
V={v1,…,vk},vi∈RD作为输入, 以使每个图像特征都编码图像的显著区域。空间特征V可以定义自下而上的注意力模型的输出,也可以按照标准实践定义为CNN的空间输出层。
2.1 Bottom-Up Attention Model
空间图像特征V的定义是通用的。在这项工作中,作者根据边界框定义空间区域,并使用Faster R-CNN实现自下而上的注意力。Faster R-CNN是一个对象检测模型,旨在识别属于特定类别的对象实例,并使用边界框对其进行定位。Faster R-CNN通过卷积层提取输入图像的特征图,将特征图送入RPN(Region Proposal Network),在特征图上滑动大小为3*3的卷积核(滑动窗口),在每个像素位置都会生成9种预先设置好长宽比与面积的anchors,得到一个256维的特征图,RPN层通过soft max判断anchors属于foreground(前景)或者background(背景),再利用bounding box 回归修正anchors获得精确的proposals(候选区域)。再和feature maps一起送入RoI pooling层,提取proposal feature maps,分别传入soft max分类和bounding box regression获得检测物体类别和检测框最终的精确位置。
对于每个选定的区域i,
v
i
v_i
vi被定义为该区域的平均池化卷积特征,使得图像特征向量的维度D为2048,Faster R-CNN有效地起到了"硬"注意力机制的作用,因为从大量可能的配置中只选择了相对少量的图像边界框特征。首先使用在ImageNet上进行分类预处理的Res Net-101初始化Faster R-CNN,然后在视觉基因组数据上进行训练。为了帮助学习好的特征表示,作者添加了一个额外的训练输出来预测属性类(除了对象类)。为了预测区域I的属性将平均池化卷积特征
v
i
v_i
vi与ground-truth的学习嵌入连接起来,并将其送到附加的输出层,该输出层定义了每个属性类加上“no attributes”类的soft max分布。
2.2 Captioning Model
给定一组图像特征V,作者提出的图像描述模型在字幕生成过程中使用自顶向下的“软”注意力机制来加权每个特征,使用现有的部分输出序列作为上下文。在高层次上模型有两个LSTM组成,如图所示。
同时使用下面的公式表示在单个时间步上引用LSTM的操作:
其中
x
t
x_t
xt是LSTM的输入向量,
h
t
h_t
ht是LSTM的输出向量(为了符号上的方便,省略了记忆单元的传播)。
2.2.1 Top-Down Attention LSTM
在该模型中,作者将第一个LSTM层描述为top-down视觉注意模型,将第二个LSTM层描述为语言模型,用上标(1、2)表示。Attention LSTM的输入由Language LSTM的前一次输出、平均池化特征
v
ˉ
=
1
k
∑
i
v
i
\bar{v}=\frac 1k\sum_{i}^{} {v_i}
vˉ=k1∑ivi以及之前生成的单词的编码组成,可由下式表示:
其中
W
e
∈
R
E
×
∣
∑
∣
W_e∈R^{E\times\mid\sum\mid}
We∈RE×∣∑∣是词汇表的词嵌入矩阵
∏
t
\prod_t
∏t是时间步t上输入单词的one-hot编码。这些输入分别为Attention LSTM提供了Language LSTM的的状态、图像整体内容和目前为止生成的描述的最大上下文信息,单词嵌入是随机初始化学习的,不需要预处理。
给定Attention LSTM的输出
h
t
1
h^1_t
ht1,在每一个时间步t为k个图像特征的每一个特征
v
i
v_i
vi生成一个归一化注意力权重
α
i
,
t
\alpha_{i,t}
αi,t
如下所示:
其中
W
v
a
∈
R
H
×
V
,
W
h
a
∈
R
H
×
M
和
ω
a
∈
R
H
W_{va}∈R^{H \times V},W_{ha}∈R^{H \times M}和\omega_{a}∈R^{H}
Wva∈RH×V,Wha∈RH×M和ωa∈RH是学习参数,利用用于Language LSTM 输入的attended图像特征计算所有输入特征的凸组合:
2.2.2 Language LSTM
Language LSTM的输入包括attended图像特征和Attention LSTM的输出可以表示为:
使用
y
1
:
T
y_{1:T}
y1:T表示单词序列
(
y
1
,
…
,
y
T
)
(y_1,\ldots,y_T)
(y1,…,yT),在每个时间步t可能输出单词的条件分布可以表示为:
其中
W
p
∈
R
∣
∑
∣
×
M
和
b
p
∈
R
∣
∑
∣
W_p∈R^{\mid\sum\mid\times M}和b_p∈R^{\mid\sum\mid}
Wp∈R∣∑∣×M和bp∈R∣∑∣是可以学的权重和偏差,完整输出序列上的分布计算为条件分布的乘积:
2.2.3 Objective
给定一个目标ground truth序列
y
1
:
T
∗
y^*_{1:T}
y1:T∗和带参数θ的图像描述模型最小化交叉熵损失:
为了和其他工作公平的比较,作者还进行了针对CIDEr的优化的结果,寻求最小化负预期得分:
其中r是得分函数,按照Self-Critical Sequence Training (SCST)的训练方式(使用强化学习对CIDEr分数进行优化),梯度的损失可以近似表示为:
其中
y
1
:
T
s
y^s_{1:T}
y1:Ts是sampled caption,
r
(
y
^
1
:
T
)
r(\hat{y}_{1:T})
r(y^1:T)是通过greedily decoding当前模型得到的baseline score。
在本文中,作者采用限制采样分布来加快训练过程。使用beam search解码,我们只从beam search中的描述进行采样。根据经验,我们在使用beam search进行解码时观察到,the resulting beam 通常包含至少一个得分非常高的描述,尽管该描述通常不具有集合中最高的对数概率。相比之下,我们观察到很少有无限制的描述样本得分高于greedily decoding的描述。
2.3 VQA
给定一组空间图像特征V,我们提出的VQA模型还使用“软”的自上而下的注意力机制来加权每个特征,使用问题表示作为上下文。如图所示,所提出的模型实现了众所周知的问题和图像的联合多模态嵌入,随后是对一组候选答案的分数回归的预测。
网络中学习的非线性变换通过门控双曲正切(gated tanh)激活来实现,每一个“门控tanh”层实现一个函数
f
a
:
x
∈
R
m
→
y
∈
R
n
f_a:x∈R^m \to y∈R^n
fa:x∈Rm→y∈Rn,参数a=
{
W
,
W
′
,
b
,
b
′
}
\{W,W^{'},b,b^{'}\}
{W,W′,b,b′},函数定义如下:
其中,σ是sigmoid激活函数,
{
W
,
W
′
∈
R
n
×
m
}
\{W,W^{'}∈R^{n \times m}\}
{W,W′∈Rn×m}是可学习权重,
{
b
,
b
′
∈
R
n
}
\{b,b^{'}∈R^n\}
{b,b′∈Rn}是可学习偏差,◦是逐元素乘积,向量g的乘积作为中间激活
y
~
\tilde{y}
y~的门。
首先对问题进行编码,作为GRU(gated recurrent unit)的隐藏状态q,每个输入单词用一个学习过的单词嵌入来表示,给定GRU的输出q,我们为k个图像特征中的每一个
v
i
v_i
vi生成非标准化的注意力权重,如下所示:
其中
ω
a
T
\omega^T_a
ωaT是可学习的参数向量,最后再计算标准化的注意力权重和注意力图像特征。
3. Result
下面的表展示了本文的方法和SCST的性能比较,这里简单列出三张表,具体的实验设置和结果分析可以参考原文。
4. Conclusion
作者提出了一种新颖的自下而上和自上而下相结合的视觉注意机制,能够更自然地在物体和其他显著区域的层面上计算注意力。同时提高了结果注意力权重的可解释性,该方法的直接好处可以通过简单地用预训练的自下而上的注意力特征替换预训练的CNN特征来获得。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)