EMNLP 2018 | 為什麼使用自注意力機制?
來自專欄機器之心43 人贊了文章
選自arXiv,作者:Gongbo Tang、Mathias Muller、Annette Rios、Rico Sennrich,機器之心編譯。
近期,非循環架構(CNN、基於自注意力機制的 Transformer 模型)在神經機器翻譯任務中的表現優於 RNN,因此有研究者認為原因在於 CNN 和自注意力網路連接遠距離單詞的路徑比 RNN 短。本文在主謂一致任務和詞義消歧任務上評估了當前 NMT 領域中最流行的三種模型:基於 CNN、RNN 和自注意力機制的模型,發現實驗結果與上述論斷並不一致。該論文已被 EMNLP 2018 接收。
多種不同架構對神經機器翻譯(NMT)都很有效,從循環架構 (Kalchbrenner and Blunsom, 2013; Bahdanau et al., 2015; Sutskever et al., 2014; Luong et al., 2015) 到卷積架構 (Kalchbrenner and Blunsom, 2013; Gehring et al., 2017),以及最近提出的完全自注意力(Transformer)模型 (Vaswani et al., 2017)。由於框架之間的對比主要依據 BLEU 值展開,因此弄清楚哪些架構特性對 BLEU 值有貢獻從本質上講是比較困難的。
循環神經網路(RNN)(Elman, 1990) 可以輕鬆處理可變長度的輸入句子,因此是 NMT 系統的編碼器和解碼器的自然選擇。RNN 的大部分變體(如 GRU 和 LSTM)解決了訓練循環神經網路的長距離依賴難題。Gehring 等人(2017)介紹了一種編碼器和解碼器都基於 CNN 的神經架構,並報告其 BLEU 值高於基於 RNN 的 NMT 模型。此外,該模型訓練期間對所有分詞的計算可以完全並行執行,提高了計算效率。Vaswani 等人(2017)提出 Transformer 模型,該模型完全基於注意力層,沒有卷積或循環結構。他們報告該模型在英語-德語和英語-法語翻譯取得了當前最優的 BLEU 值。但 BLEU 值指標比較粗糙,無法幫助觀察不同架構如何改善機器翻譯質量。
為了解釋 BLEU 值的提高,之前的研究進行了理論論證。Gehring 等人(2017)和 Vaswani 等人(2017)都認為神經網路中共依賴因素(co-dependent element)之間的路徑長度會影響模型學習這些依賴關係的能力:路徑越短,模型學習此類依賴關係就越容易。這兩篇論文認為 Transformer 和 CNN 比 RNN 更擅長捕捉長距離依賴。
但是,這一斷言僅基於理論論證,並未經過實驗驗證。本文作者認為非循環網路的其它能力可能對其強大性能貢獻巨大。具體來說,本文作者假設 BLEU 值的提高取決於具備強大語義特徵提取能力的 CNN 和 Transformer。
該論文評估了三種流行的 NMT 架構:基於 RNN 的模型(下文用 RNNS2S 表示)、基於 CNN 的模型(下文用 ConvS2S 表示)和基於自注意力的模型(下文用 Transformer 表示)。受到上述關於路徑長度和語義特徵提取關係的理論陳述的啟發,研究者在主謂一致任務(需要建模長距離依賴)和詞義消歧(WSD)任務(需要提取語義特徵)上對三種模型的性能進行了評估。這兩項任務分別基於對照翻譯對(contrastive translation pair)測試集 Lingeval97 (Sennrich, 2017) 和 ContraWSD (Rios et al., 2017)。
本論文的主要貢獻如下:
- 檢驗了這一理論斷言:具備更短路徑的架構更擅長捕捉長距離依賴。研究者在建模長距離主謂一致任務上的實驗結果並沒有表明,Transformer 或 CNN 在這方面優於 RNN。
- 通過實驗證明 Transformer 中注意力頭的數量對其捕捉長距離依賴的能力有所影響。具體來說,多頭注意力對使用自注意力機制建模長距離依賴是必要的。
- 通過實驗證明 Transformer 擅長 WSD,這表明 Transformer 是強大的語義特徵提取器。
論文:Why Self-Attention? A Targeted Evaluation of Neural Machine Translation Architectures
論文鏈接:https://arxiv.org/pdf/1808.08946.pdf
摘要:近期,非循環架構(卷積、自注意力)在神經機器翻譯任務中的表現優於 RNN。CNN 和自注意力網路連接遠距離單詞的路徑比 RNN 短,有研究人員推測這正是其建模長距離依賴能力得到提高的原因。但是,這一理論論斷並未得到實驗驗證,對這兩種網路的強大性能也沒有其他深入的解釋。我們假設 CNN 和自注意力網路的強大性能也可能來自於其從源文本提取語義特徵的能力。我們在兩個任務(主謂一致任務和詞義消歧任務)上評估了 RNN、CNN 和自注意力網路的性能。實驗結果證明:1)自注意力網路和 CNN 在建模長距離主謂一致時性能並不優於 RNN;2)自注意力網路在詞義消歧方面顯著優於 RNN 和 CNN。
主謂一致
主謂一致任務是評估模型捕捉長距離依賴能力的最流行選擇,曾在多項研究中使用 (Linzen et al., 2016; Bernardy and Lappin, 2017; Sennrich, 2017; Tran et al., 2018)。因此,我們也使用該任務評估不同 NMT 架構的捕捉長距離依賴能力。
表 2:不同 NMT 模型的結果,包括在 newstest2014 和 newstest2017 上的 BLEU 值、在驗證集上的困惑度,以及長距離依賴的準確率。
WSD
主謂一致任務上的實驗結果展示了 CNN 和 Transformer 在捕捉長距離依賴方面並沒有優於 RNN,即使 CNN 和 Transformer 中的路徑更短。這一發現與上文提到的理論斷言相悖。但是,從 BLEU 值來看,這些架構在實驗中的表現都很不錯。因此,我們進一步在 WSD 任務上評估這些架構來驗證我們的假設:非循環架構更擅長提取語義特徵。
表 5:不同架構在 newstest 數據集和 ContraWSD 上的結果。PPL 指在驗證集上的困惑度。Acc 表示在測試集上的準確率。
推薦閱讀:
※face-api.js:在瀏覽器中進行人臉識別的JS介面
※人工智慧時代下的數據安全治理
※用神經網路來判定量子糾纏?這裡有一篇簡單易懂的方法解讀