寫在前面:有一段時間沒更新專欄了,哈哈,先吐槽下自己的龜速更新。

Attention機制基本已成為NLP的居家旅行必備技能,同時也是我一直關注的技術點,希望本篇內容能帶給大家些許思考。如有描述不對的地方,歡迎拍磚。好了,廢話不多說,進入正題!


1. Attention機制

attention機制最初是由Bahdanau等人通過「Neural Machine Translation by Jointly Learning to Align and Translate「一文引入到NLP中。主要思想是採用attention機制去解決機器翻譯中的對齊問題緩解RNN的長距離依賴。基本結構如下圖所示。

因本文重點放在attention機制本身,有關其在機器翻譯中的具體使用,感興趣的同學可祥看論文。

下面給出attention機制的一般結構示意圖:

為了便於描述,將attention機制的三元組定義為 Omega={q,K,V} ,並且通常情況下 KV 等價。整個計算過程可分為三步:

1. 計算 q 與每個 k_i 的相關性 e_i=a(q, k_i)

2. 權重歸一化 alpha_i=frac{	ext{exp}(e_i)}{sum_{k=1}^{n}	ext{exp}(e_k)}

3. 加權求和 c = sum_{i=1}^{n}alpha_ik_i .

其中,e_i 為標量,n 為序列長度,a(q,k) 為相關性函數。常見的相關性函數有:

Multiplicative: q^Tk, quad  q^TWk

Additive: w_{2}^{T}tanh(W_{1}[q;k]) MLP: sigma(w_{2}^{T}tanh(W_1[q;k]+b_1)+b_2)

單純的從attention機制計算上來看,介紹到這裡其實核心的東西都闡明了,attention無非就是想捕捉到序列中最相關的信息。

但是,如果僅僅到這裡的話,那也不值得深夜碼字了。說好的拋磚引玉,還沒拋呢,接下來才是本文的重點!

2. 拋磚

註:本小節僅為個人觀點,如有好的想法,歡迎討論交流。

注意到,上節在總結attention機制的時候,用了最相關這個詞,我們可以思考一下這個最相關是怎麼來的?

首先,直觀上看,相關性函數計算得分越高,則該位置的信息越重要。

其次,由於相關性函數 a(q,k) 同時也是 q 的函數,這也就意味著,相關性得分與 q 聯繫緊密。而這正是本文所要深入探討的點。

  • 磚一:在attention機制三元組 Omega={q,K,V} 中,q 類似於一個監督信號,並且一個有意義的 q 是attention機制的關鍵;
  • 磚二:從概率論的角度出發,attention的權重 alpha_i 可以看作是給定監督信號 q 下的條件概率分布 P(V=v_i|Q=q) ,加權求和的輸出 c 即為條件期望 E(V|Q=q)=sum_{i}^{n}v_iP(v_i|q)

第二條相對容易理解,下面簡要分析下第一條:

首先,對於機器翻譯,decoder中每前一時刻的隱狀態 s_{i-1} 作為監督信號 q 。對於問答場景,question本身即是天然的監督信號 q 。它們的核心思想都是通過 q 的作用,去捕捉最相關的信息;

其次,對於文本分類和匹配等任務,由於不存在類似上述的天然監督信號 q ,那麼如何去尋找 q 成為attention機制能否奏效的關鍵所在。

讀過相關論文的同學都知道,既然沒有這樣的天然監督信號,那我就隨機初始化定義一個 q ,隨著樣本一起訓練,接下來把時間交給神經網路就好啦。

這肯定是個好想法,充分利用神經網路的學習能力,嘗試去擬合任務內在的監督信號 q 。但是這種做法存在兩個問題:

  • 魯棒性和泛化能力有待考究。訓練完, q 是一個固定的表徵,模型推理時對於任意的輸入,該監督信號是否都能夠get到關鍵信息;
  • 單個監督信號表徵的信息不充分。單個static監督信號無法cover整個特徵空間,只能捕捉到某一層面的信息。

3. Basic-Attention的變體

既然上面講了那麼多Basic-Attention存在的問題,那麼接下來就得講講該如何緩解這些問題。主要介紹兩個思路。

其一,定義單個監督信號 q 所能表徵的信息不夠充分,那麼最直接的做法就是定義多個監督信號,期望每個監督信號都能捕捉到不同層面的信息。這塊工作的經典論文為「A STRUCTURED SELF-ATTENTIVE SENTENCE EMBEDDING」,文中還順帶提出一個有意思的正則項,用來迫使每個監督信號分別attention到不同信息。

A Structured Self-attentive Sentence Embedding?

arxiv.org

其二,可訓練的監督信號訓練結束後是固定的,我們期望可以根據具體的輸入文本,動態的調整監督信號,提高模型的魯棒性和泛化能力。這個方向還沒有出現較為成熟的方案,此處給大家推薦一篇dynamic self-attention作為參考。作者結合multi-head的形式取得了較好的結果,鏈接如下。

Dynamic Self-Attention : Computing Attention over Words Dynamically for Sentence Embedding?

arxiv.org

延續前文思路,個人認為attention機制後續發展的關鍵還是在於如何去定義或者生成動態自適應的監督信號 q

最後,有同學可能會有疑惑,談attention,怎麼能不提到Transformer中的attention結構呢?簡單說兩句我個人的理解,Transformer中的 {Q,K,V} 三者都來自其自身的表徵 X ,捨棄LSTM,轉而利用「self-attention」來表徵每個詞與其上下文的聯繫。encoder中的多個block可以看作是多層級聯的BiLSTM。


推薦閱讀:
相关文章