Self | 您所在的位置:网站首页 › 瓷砖计算公式例子图片 › Self |
文章目录
1. Attention的思想2. Self-Attention计算公式3. Self-Attention的计算实例4. 引申4.1 Multi-Head Attention4.2 Add & Norm
1. Attention的思想
Attention注意力的核心目标就是从众多信息中选择出对当前任务目标更关键的信息,将注意力放在上面。 本质思想就是【从大量信息中】【有选择的筛选出】【少量重要信息】并【聚焦到这些重要信息上】,【忽略大多不重要的信息】。聚焦的过程体现在【权重系数】的计算上,权重越大越聚焦于其对应的value值上。即权重代表了信息 的重要性,而value是其对应的信息。 个人理解,就是对参数进行“加权求和”。 2. Self-Attention计算公式 其中, X X X表示输入的数据, Q , K , V Q,K,V Q,K,V对应内容如图,其值都是通过 X X X和超参(先初始化,后通过训练优化)进行矩阵运算得来的。 可以理解为:Self-Attention中的Q是对自身(self)输入的变换,而在传统的Attention中,Q来自于外部。 3. Self-Attention的计算实例 结合代码进行理解: Step1: 初始化 W Q , W K , W V W^Q , W^K,W^V WQ,WK,WV矩阵 class BertSelfAttention(nn.Module): self.w_q = nn.Linear(config.hidden_size, self.all_head_size) # 输入768, 输出768 self.w_k = nn.Linear(config.hidden_size, self.all_head_size) # 输入768, 输出768 self.w_v = nn.Linear(config.hidden_size, self.all_head_size) # 输入768, 输出768 假设三种操作的输入都是同等维度的矩阵,这里每个特征维度都是768.即三者的维度: W Q . s h a p e = [ 768 , 768 ] W K . s h a p e = [ 768 , 768 ] W V . s h a p e = [ 768 , 768 ] W^Q.shape = [768, 768] \\ W^K.shape = [768, 768] \\ W^V.shape = [768, 768] WQ.shape=[768,768]WK.shape=[768,768]WV.shape=[768,768] Step2: 定义输入 输入的特征维度也为768,即:每个字用768维来进行表示,如图所示: 即输入的X的维度为: [6, 768]. Step3: 计算 Q , K , V Q, K, V Q,K,V 由于维度的问题,需要调换以下顺序,以及可能会涉及到转置: Q = X ⋅ W Q K = X ⋅ W K V = X ⋅ W V Q = X·W^Q \\ K = X·W^K \\ V = X·W^V Q=X⋅WQK=X⋅WKV=X⋅WV 根据以上公式,得到 Q , K , V Q, K, V Q,K,V 的维度: Q . s h a p e = [ 6 , 768 ] ∗ [ 768 , 768 ] = [ 6 , 768 ] Q.shape = [6, 768] * [768,768] = [6, 768] Q.shape=[6,768]∗[768,768]=[6,768] K , V K,V K,V同理。其维度图如下: Step4: 根据公式计算注意力Attention A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V Attention(Q, K, V) = softmax({Q K^T \over \sqrt{d_k}}) V Attention(Q,K,V)=softmax(dk QKT)V First: 是 Q , K Q, K Q,K 矩阵相乘,维度变化: [ 6 , 768 ] ∗ [ 768 , 6 ] = [ 6 , 6 ] [6, 768] * [768, 6] = [6, 6] [6,768]∗[768,6]=[6,6],如图: (1)首先用Q的第一行,即“我”字的768特征和K中“我”字的768为特征点乘求和,得到输出(0,0)位置的数值,这个数值就代表了“我想吃酸菜鱼”中“我”字对“我”字的注意力权重; (2)然后显而易见输出的第一行就是“我”字对“我想吃酸菜鱼”里面每个字的注意力权重;整个结果自然就是“我想吃酸菜鱼”里面每个字对其它字(包括自己)的注意力权重(就是一个数值)了. Second: 除以 d k , d k \sqrt{d_k} ,d_k dk ,dk表示特征维度,在本例中 d k = 768 d_k = 768 dk=768 。之所以要除以这个数,是为了矩阵点乘后的范围,确保softmax的梯度稳定性。 Three: 最后就是注意力权重和 V V V 矩阵相乘,如图所示: (1)首先是“我”这个字对“我想吃酸菜鱼”这句话里面每个字的注意力权重,和V中“我想吃酸菜鱼”里面每个字的第一维特征进行相乘再求和,这个过程其实就相当于用每个字的权重对每个字的特征进行加权求和, (2)然后再用“我”这个字对对“我想吃酸菜鱼”这句话里面每个字的注意力权重和V中“我想吃酸菜鱼”里面每个字的第二维特征进行相乘再求和,依次类推最终也就得到了(L,768)的结果矩阵,和输入保持一致。 注意: 注意力机制是没有位置信息的,所以需要引入位置编码。 4. 引申 介绍transformer相关的内部结构。 4.1 Multi-Head Attention 即多头注意力机制,其作用是让模型从多个子空间中关注到不同方面的信息。其模型图如下: 其计算步骤如下 Step1: 初始化多组 W Q , W K , W V W^Q,W^K,W^V WQ,WK,WV 如上图中初始化了三组,分别是: W 1 Q , W 1 K , W 1 V W 2 Q , W 2 K , W 2 V W 3 Q , W 3 K , W 3 V W_1^Q,W_1^K,W_1^V \\ W_2^Q,W_2^K,W_2^V \\ W_3^Q,W_3^K,W_3^V W1Q,W1K,W1VW2Q,W2K,W2VW3Q,W3K,W3V Step2: 分别计算每组的 Q , K , V Q,K,V Q,K,V 得到三组 Q , K , V Q, K, V Q,K,V Step3: 分别按照之前的公式计算Attention 由图将计算到的Attention称之为: Z 1 , Z 2 , Z 3 Z_1, Z_2, Z_3 Z1,Z2,Z3 。 Step4: 将各组Attention( Z 1 , Z 2 , Z 3 Z_1, Z_2, Z_3 Z1,Z2,Z3)拼接然后进行线性变换映射到原来的空间中 如下图: 将三个 Z 1 , Z 2 , Z 3 Z_1, Z_2, Z_3 Z1,Z2,Z3进行凭借,然后经过线性变换,即得到和原来输入同等维度的Z, 也可以理解为最终的注意力。 4.2 Add & Norm Add操作的目的是:借鉴了残差网络,防止退化; Norm操作的目的是:对向量进行标准化,以达到加速收敛的效果。 注: (1)其中主要部分有参考下面这篇文章,写得非常好Attention注意力机制详解 (2)这个视频也讲解的非常好 https://www.bilibili.com/video/BV1E44y1Y7B4/?spm_id_from=autoNext |
CopyRight 2018-2019 实验室设备网 版权所有 |