李宏毅《深度学习》- Self-attention 自注意力机制

Transformer & BERT PPT: https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/self_v7.pdf
【李宏毅《机器学习/深度学习》2021课程(国语版本,已授权)-哔哩哔哩】https://b23.tv/baegp9

一、问题分析

1. 模型的输入

无论是预测视频观看人数还是图像处理,输入都可以看作是一个向量,输出是一个数值或类别。然而,若输入是一系列向量(序列),同时长度会改变,例如把句子里的单词都描述为向量,那么模型的输入就是一个向量集合,并且每个向量的大小都不一样:
李宏毅《深度学习》- Self-attention 自注意力机制
将单词表示为向量的方法:One-hot Encoding(独热编码)。向量的长度就是世界上所有词汇的数目,用不同位的1(其余位置为0)表示一个词汇,如下所示:

  • apple = [1, 0, 0, 0, 0, …]
  • bag = [0, 1, 0, 0, 0, …]
  • cat = [0, 0, 1, 0, 0, …]
  • dog = [0, 0, 0, 1, 0, …]
  • computer = [0, 0, 0, 0, 1, …]

但是它并不能区分出同类别的词汇,里面没有任何有意义的信息。

另一个方法是Word Embedding:给单词一个向量,这个向量有语义的信息,一个句子就是一排长度不一的向量。将Word Embedding画出来,就会发现同类的单词就会聚集,因此它能区分出类别:
李宏毅《深度学习》- Self-attention 自注意力机制
另外还有语音信号、图像信号也能描述为一串向量:

语音信号 图论
取一段语音信号作为窗口,把其中的信息描述为一个向量(帧),滑动这个窗口就得到这段语音的所有向量 社交网络的每个节点就是一个人,节点之间的关系用线连接。每一个人就是一个向量
分子上的每个原子就是一个向量(每个元素可用One-hot编码表示),分子就是一堆向量
李宏毅《深度学习》- Self-attention 自注意力机制 李宏毅《深度学习》- Self-attention 自注意力机制李宏毅《深度学习》- Self-attention 自注意力机制

2. 模型的输出

李宏毅《深度学习》- Self-attention 自注意力机制

类型一:一对一(Sequence Labeling)

每个输入向量对应一个输出标签。

  • 文字处理:词性标注(每个输入的单词都输出对应的词性)。
  • 语音处理:一段声音信号里面有一串向量,每个向量对应一个音标。
  • 图像处理:在社交网络中,推荐某个用户商品(可能会买或者不买)。

类型二:多对一

多个输入向量对应一个输出标签。

  • 语义分析:正面评价、负面评价。
  • 语音识别:识别某人的音色。
  • 图像:给出分子的结构,判断其亲水性。

类型三:由模型自定(seq2seq)

不知道应该输出多少个标签,机器自行决定。

  • 翻译:语言A到语言B,单词字符数目不同
  • 语音识别

3. 序列标注 (Sequnce Labeling) 的问题

利用全连接网络,输入一个句子,输出对应单词数目的标签。当一个句子里出现两个相同的单词,并且它们的词性不同(例如:I saw a saw. 我看见一把锯子),这个时候就需要考虑上下文:利用滑动窗口,每个向量查看窗口中相邻的其他向量的性质。

李宏毅《深度学习》- Self-attention 自注意力机制

但是这种方法不能解决整条语句的分析问题,即语义分析。这就引出了 Self-attention 技术。

二、Self-attention 自注意力机制

输入整个语句的向量到self-attention中,输出对应个数的向量,再将其结果输入到全连接网络,最后输出标签。以上过程可多次重复:
李宏毅《深度学习》- Self-attention 自注意力机制

Google 根据自注意力机制在《Attention is all you need》中提出了 Transformer 架构。

1. 运行原理

这里需要三个向量:Query,Key,Value。其解释参考文章 《如何理解 Transformer 中的 Query、Key 与 Value》- yafee123

李宏毅《深度学习》- Self-attention 自注意力机制
注: b i ( 1 ≤ i ≤ 4 ) b^i (1≤i≤4) bi(1≤i≤4) 是同时计算出来的, a i , j a_{i,j} ai,j​为 q i q^i qi和 k j k^j kj的内积。
李宏毅《深度学习》- Self-attention 自注意力机制
上述过程可总结为:

  • 输入矩阵 I I I分别乘以三个 W W W得到三个矩阵 Q , K , V Q,K,V Q,K,V
  • A = K T Q A=K^TQ A=KTQ,经过处理得到注意力矩阵 A ′ A' A′
  • 输出 O = V A ′ O=VA' O=VA′
    李宏毅《深度学习》- Self-attention 自注意力机制
    其中唯一要训练出的参数就是 W W W.

2. 多头注意力机制 (Multi-head Self-attention)

李宏毅《深度学习》- Self-attention 自注意力机制
b i = W 0 [ b i , 1 b i , 2 ] b^i=W^0\left[ \begin{array}{c} b^{i,1} \\ b^{i,2} \end{array} \right] bi=W0[bi,1bi,2​]

Query,Key,Value首先经过一个线性变换,然后输入到放缩点积attention,注意这里要做 h h h 次,其实也就是所谓的多头,每一次算一个头。而且每次Q,K,V进行线性变换的参数 W W W是不一样的( W q , W k , W v W^q,W^k,W^v Wq,Wk,Wv)。然后将 h h h 次的放缩点积attention结果进行拼接,再进行一次线性变换得到的值作为多头attention的结果。1

对于Self-attention来说,并没有序列中字符位置的信息。例如动词是不太可能出现在句首的,因此可以降低动词在句首的可能性,但是自注意力机制并没有该能力。因此需要加入 Positional Encoding 的技术来标注每个词汇在句子中的位置信息。

3. 位置编码 (Positional Encoding)

李宏毅《深度学习》- Self-attention 自注意力机制

每一个不同的位置都有一个专属的向量 e i e^i ei,然后再做 e i + a i e^i+a^i ei+ai 的操作即可。但是这个 e i e^i ei 是人工标注的,就会出现很多问题:在确定 e i e^i ei的时候只定到128,但是序列长度是129。在最早的论文2中是没有这个问题的,它通过某个规则(sin、cos函数)3 产生。尽管如此,位置编码也可以通过学习来得出。

BERT4 模型也用到了自注意力机制

Self-attention 还可以用在除NLP以外的问题上:语音处理,图像处理。

三、其他应用

1. 语音识别

李宏毅《深度学习》- Self-attention 自注意力机制

2. 图像识别

在做CNN的时候,一张图片可看做一个很长的向量。它也可看做 一组向量:一张510的RGB图像可以看做510的三个(通道)矩阵,把三个通道的相同位置看做一个三维向量。
李宏毅《深度学习》- Self-attention 自注意力机制
具体应用:GAN、DETR
李宏毅《深度学习》- Self-attention 自注意力机制

2.1 自注意力机制和CNN的差异

李宏毅《深度学习》- Self-attention 自注意力机制

  • CNN看做简化版的self-attention:CNN只考虑一个感受野里的信息,self-attention考虑整张图片的信息
  • self-attention是复杂版的CNN:CNN里面每个神经元只考虑一个感受野,其范围和大小是人工设定的;自注意力机制中,用attention去找出相关的像素,感受野就如同自动学出来的。
    李宏毅《深度学习》- Self-attention 自注意力机制
    如果用不同的数据量来训练CNN和self-attention,会出现不同的结果。大的模型self-attention如果用于少量数据,容易出现过拟合;而小的模型CNN,在少量数据集上不容易出现过拟合。5

2.2 与RNN的差异

李宏毅《深度学习》- Self-attention 自注意力机制
因此很多的应用逐渐把RNN的架构改为Self-attention架构。6

3. 应用于图论(GNN)

李宏毅《深度学习》- Self-attention 自注意力机制

自注意力机制的缺点就是计算量非常大,因此如何优化其计算量是未来研究的重点。


  1. transformer模型中的self-attention和multi-head-attention机制 - 小镇大爱 ↩︎

  2. Learning to Encode Position for Transformer with Continuous Dynamical Model ↩︎

  3. 浅谈Positional Encoding(位置编码)和WordPiece - Shaw_Road ↩︎

  4. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding ↩︎

  5. On the Relationship between Self-Attention and Convolutional Layers ↩︎

  6. Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention ↩︎

上一篇:【论文阅读】Joint_Self-Attention_and_Multi-Embeddings_for_Chinese_Named_Entity_Recognition[BigCom2020]


下一篇:CBAM 论文笔记