注意力评分函数
上一节 使用了高斯核来对查询和键之间的关系建模。其中的高斯核指数部分 (式9.2.6
)可以视为注意力评分函数(attention scoring function),简称评分函数(scoring function),然后把这个函数的输出结果输入到 softmax 函数中进行运算。通过上述步骤,将得到与键对应的值的概率分布(即注意力权重)。最后,注意力汇聚的输出就是基于这些注意力权重的值的加权和。
从宏观来看,上述算法可以用来实现 9.1 节 中的注意力机制框架。下图说明了如何将注意力汇聚的输出计算成为值的加权和:
- 其中 a 表示注意力评分函数。由于注意力权重是概率分布,因此加权和其本质上是加权平均值。
用数学语言描述,假设有一个查询 q∈Rq 和 m 个“键-值”对 (k1,v1),…,(km,vm),其中 ki∈Rk,vi∈Rv。注意力汇聚函数 f 就被表示成值的加权和:
f(q,(k1,v1),…,(km,vm))=i=1∑mα(q,ki)vi∈Rv,(9.3.1)
其中查询 q 和键 ki 的注意力权重(标量)是通过注意力评分函数 a 将两个向量映射成标量,再经过 softmax 运算得到的:
α(q,ki)=softmax(a(q,ki))=∑j=1mexp(a(q,kj))exp(a(q,ki))∈R.(9.3.2)
正如上图所示,选择不同的注意力评分函数a会导致不同的注意力汇聚操作。本节将介绍两个流行的评分函数,稍后将用他们来实现更复杂的注意力机制。
掩蔽softmax操作
正如上面提到的,softmax 操作用于输出一个概率分布作为注意力权重。在某些情况下,并非所有的值都应该被纳入到注意力汇聚中。例如,为了在 机器翻译 中高效处理小批量数据集,某些文本序列被填充了没有意义的特殊词元。为了仅将有意义的词元作为值来获取注意力汇聚,可以指定一个有效序列长度(即词元的个数),以便在计算 softmax 时过滤掉超出指定范围的位置。下面的 masked_softmax
函数实现了这样的掩蔽 softmax 操作(masked softmax operation),其中任何超出有效长度的位置都被掩蔽并置为0。
为了演示此函数是如何工作的,考虑由两个 2×4 矩阵表示的样本,这两个样本的有效长度分别为 2 和 3。经过掩蔽 softmax 操作,超出有效长度的值都被掩蔽为0。
同样,也可以使用二维张量,为矩阵样本中的每一行指定有效长度。
加性注意力
一般来说,当查询和键是不同长度的矢量时,可以使用加性注意力作为评分函数。
给定查询 q∈Rq 和键 k∈Rk,加性注意力(additive attention)的评分函数为
a(q,k)=wv⊤tanh(Wqq+Wkk)∈R,(9.3.3)
其中可学习的参数是 Wq∈Rh×q、Wk∈Rh×k 和 wv∈Rh。如上式所示,将查询和键连结起来后输入到一个多层感知机(MLP)中,感知机包含一个隐藏层,其隐藏单元数是一个超参数 h。通过使用 tanh 作为激活函数,并且禁用偏置项。
下面来实现加性注意力。
用一个小例子来演示上面的 AdditiveAttention
类,其中查询、键和值的形状为(批量大小,步数或词元序列长度,特征大小),实际输出为 (2,1,20)、(2,10,2) 和 (2,10,4)。注意力汇聚输出的形状为(批量大小,查询的步数,值的维度)。
尽管加性注意力包含了可学习的参数,但由于本例子中每个键都是相同的,所以注意力权重是均匀的,由指定的有效长度决定。
缩放点积注意力
使用点积可以得到计算效率更高的评分函数,但是点积操作要求查询和键具有相同的长度 d 。假设查询和键的所有元素都是独立的随机变量,并且都满足零均值和单位方差,那么两个向量的点积的均值为 0,方差为 d。为确保无论向量长度如何,点积的方差在不考虑向量长度的情况下仍然是 1,我们再将点积除以 d,则缩放点积注意力(scaled dot-product attention)评分函数为:
a(q,k)=dq⊤k.(9.3.4)
在实践中,我们通常从小批量的角度来考虑提高效率,例如基于 n 个查询和 m 个键-值对计算注意力,其中查询和键的长度为 d,值的长度为 v。查询 Q∈Rn×d、键 K∈Rm×d 和值 V∈Rm×v 的缩放点积注意力是:
softmax(dQK⊤)V∈Rn×v.(9.3.5)
下面的缩放点积注意力的实现使用了暂退法进行模型正则化。
为了演示上述的 DotProductAttention
类,我们使用与先前加性注意力例子中相同的键、值和有效长度。对于点积操作,我们令查询的特征维度与键的特征维度大小相同。
与加性注意力演示相同,由于键包含的是相同的元素,而这些元素无法通过任何查询进行区分,因此获得了均匀的注意力权重。
小结
- 将注意力汇聚的输出计算可以作为值的加权平均,选择不同的注意力评分函数会带来不同的注意力汇聚操作。
- 当查询和键是不同长度的矢量时,可以使用可加性注意力评分函数。当它们的长度相同时,使用缩放的“点-积”注意力评分函数的计算效率更高。
练习
- 修改小例子中的键,并且可视化注意力权重。可加性注意力和缩放的“点-积”注意力是否仍然产生相同的结果?为什么?
- 只使用矩阵乘法,能否为具有不同矢量长度的查询和键设计新的评分函数?
- 当查询和键具有相同的矢量长度时,矢量求和作为评分函数是否比“点-积”更好?为什么?
:begin_tab:mxnet
Discussions
:end_tab:
:begin_tab:pytorch
Discussions
:end_tab:
:begin_tab:paddle
Discussions
:end_tab: