2018.4.2論文推薦
@江晚晚96
- 《Ask the Right Questions : Active Question Reformulation with Reinforcement Learning》
來源:ICLR2018 論文鏈接
方向:QA
解決問題:通過重新表述用戶的問題來讓 QA 系統更好的理解問題,從而給出更加準確的答案
創新點:
每個人問同一個問題的表述都可能是不同的,自動問答系統應該如何更好的理解用戶的問題呢?當我們用一種描述方式來提問時,可能不會被 get 到,但也許換一種方式來表達就會好一些,這就是所謂的「ask the right questions」。將QA看作為一個強化學習任務,稱之為主動問答。 本文提出了一個位於用戶和黑匣子問答系統之間的代理,該系統通過重新表述用戶的問題來讓 QA 系統更好的理解問題,從而給出更加準確的答案。代理用可能包含許多初始問題的自然語言重寫探查系統,並匯總返回的證據以產生最佳答案。重構系統使用策略梯度進行端對端訓練,以最大化答案質量。在 SearchQA 數據集上取得了比較明顯的效果。
模型圖:
- 《Fast and Accurate Reading Comprehension by Combining Self-Attention and Convolution》
來源:ICLR2018 論文鏈接
方向:機器閱讀理解
解決問題:論文使用卷積神經網路結合自注意力機制,完成機器閱讀理解任務
創新點:
當前的端到端機器閱讀和問答(Q&A)模型主要基於遞歸神經網路(RNN)而受到關注,這些模型訓練和推理往往都很慢。本文提出了一種不需要遞歸網路的新型Q&A體系結構:其編碼器完全由卷積和self-attention組成,其中卷積建模局部交互,self-attention建模全局交互。在SQuAD數據集上,模型訓練速度提高3倍到13倍,推理速度提高4倍到9倍,同時獲得與遞歸模型同樣的精度。總的來說,論文改變了以往機器閱讀理解均使用 RNN 進行建模的習慣,使用卷積神經網路結合自注意力機制,完成機器閱讀理解任務。其中作者假設,卷積神經網路可建模局部結構信息,而自注意力機制可建模全文互動關係,這兩點就足以完成機器閱讀理解任務。
模型圖:
@zc111
- 《Feudal Reinforcement Learning for Dialogue Management in Large Domains》
來源:NAACL 2018
方向:DS
解決問題:強化學習在大規模領域訓練的缺點
創新點:
本篇文章著眼於強化學習在多輪對話系統中的優勢與劣勢,提出了強化學習在大規模領域訓練中的表現不是很好,就此問題提出了Feudal RL的一種新型的RL模型。該模型將強化學習策略選擇的過程優化為兩部,第一步先進行動作子集的選取,第二步再進行具體策略動作的選取,從而減少動作空間探索的步驟,以達到優化強化學習的目的。
模型圖:
- 《AliMe Chat: A Sequence to Sequence and Rerank based Chatbot Engine》
來源:ACL 2017
方向:DS
解決問題:優化對話系統
創新點:
本篇文章通過將傳統QA系統中的信息檢索(IR)模型與傳統的seq2seq模型相結合,將兩種的模型的優點所結合,提出了一個聯合模型。該模型先在知識庫中的問答對進行檢索打分,分數高的回答作為結果輸出,若分數低的回答則將該問題送入seq2seq模型進行生成。該篇文章進行了一系列的對比實驗,並將實驗的結果做成了一個可使用的app,以此說明了該模型相較於其他模型的優勢。
模型圖:
@Godliness.Bo
- 《Feudal Reinforcement Learning for Dialogue Management in Large Domains》
來源:NAACL 2018 論文鏈接
強化學習(RL)是解決對話策略優化問題的一種有前途的方法。然而,傳統的RL演算法由於維數的限制而無法擴展到大的領域。論文提出了一種基於Feudal
RL的新型對話管理架構,該架構將決策分解為兩個步驟; 第一步主策略選擇原語動作的子集,第二步從所選擇的子集中選擇原語動作。包含在領域本體中的結構信息用於抽象對話狀態空間,在每個步驟中使用抽象狀態的不同部分作出決策。這與slots之間的信息共享機制相結合,增加了在大型領域的可擴展性。作者表明,基於Deep-Q網路的這種方法的實施在幾個對話領域和環境中顯著優於先前的最好狀態,而且不需要任何額外的獎勵信號。該論文針對任務型對話系統,其創新點有:Feudal對話政策將每一輪決議分解為兩步。在第一步中,策略決定是否需要與slot無關或slot相關的操作。然後,抽取每個slot子策略的狀態以考慮與該slot相關的特徵,並且從先前選擇的子集中選擇原語動作。而且模型不需要對獎勵函數進行任何修改,分層體系結構由系統的結構化資料庫表示(即本體論)完全規定,不需要額外的設計。
該模型DM首先根據主策略確定是信息獲取型還是信息提供型action,然後根據結果選擇不同的策略得到要執行的動作。
- 《Fast and Accurate Reading Comprehension by Combining Self-attention and Convolution》
來源:ICLR2018 論文鏈接
當前的端到端機器閱讀和問答(Q&A)模型主要是基於有attention的循環神經網路(RNN)。儘管他們取得了成功,但由於RNN的連續性,這些模型往往對訓練和推理都很慢。因此作者提出了一種不需要RNN的新型Q&A體系結構:其編碼器完全由convolution和self-attention組成,其中convolution關注局部關係,self-attention關注全局關係。在SQuAD數據集中,該論文提出的模型訓練速度提高3倍到13倍,推理速度提高4倍到9倍,同時獲得與RNN模型等效的正確率。加快的速度使作者能夠用更多的數據來訓練模型。因此,作者將他們的模型與來自神經機器翻譯模型的反向翻譯生成的數據結合起來。在SQuAD數據集上,作者使用增強數據訓練的單一模型在測試集上獲得了84.6的F1分,顯著優於公布的F1.8.8的最佳分數。
該論文有以下兩個創新點:(1)作者提出了一個專門建立在convolution和self-attention之上的高效的閱讀理解模型。與RNN相比,這種組合保持良好的準確性,同時實現了訓練過程高達13倍的增速的和每次訓練迭代的9倍增速。 加快的速度使作者的模型成為擴展到更大數據集的最有前途的候選者。(2)為了改進在SQuAD上的結果,作者提出了一種新的數據增強技術,以通過改寫來豐富訓練數據。它使得模型實現了比現有技術更好的更高精度。
閱讀理解模型由以下幾層組成:Input Embedding layer、Embedding Encoder Layer、Context-Query Attention Layer、Model Encoder Layer、Output Layer,其中使用了位置編碼、卷積和self-attention等。(結構圖如下)反向翻譯增強數據使用了GNMT模型,通過英文翻譯成法語(或德語)再翻譯或英語,從而增加了數據的數量,並使用Character-level 2-gram scores來確定改寫文檔中正確答案的位置。
@不讀不讀不讀
- 《EmoNet: Fine-Grained Emotion Detection with Gated Recurrent Neural Networks 》
來源:ACL2017 論文鏈接
方向:Emotion Classification
解決問題:
構建數據集解決情緒分類領域標註語料不足的問題,並通過遠監督的方式實現情緒的細粒度分類。情感檢測模型的重要性在現在已經不言而喻,然而,情緒檢測仍然是一個挑戰性的任務,部分原因是有標籤數據的可用性有限,部分原因是情緒本身具有爭議性。
機器學習在自然語言處理(NLP)方面的最新進展表明,給定足夠的標記數據,應該有機會建立更好的情感檢測模型。然而,數據的手工標記是昂貴的,因此希望開發標記的情緒數據而沒有注釋者。雖然社交媒體的激增使我們有可能以hashtags的形式獲取含有隱式標籤的大型數據集,這些標籤卻嘈雜且可靠。
貢獻:
1.基於情緒心理學理論,文章建立了一個大規模,高質量的以情緒標記的推文數據集,主要貢獻在於一系列確定數據質量的方法。
2.使用門控循環網路開發功能強大的深度學習模型來利用數據,生成最先進的24種細粒度的情感類型。
3.另外文章將任務擴展到這24種情感類型之外,以模擬Plutick的8個主要情感維度。
- 《Adversarial Learning for Chinese NER from Crowd Annotations》
來源:AAAI2018 論文鏈接
方向:NER
解決問題:通過引入對抗學習來解決眾包標註時質量不佳的問題
在訓練NER系統時,為了快速獲得新的標籤數據,可以在短時間內選擇成本較低的眾包作為替代方式,但質量可能比專家標註的低很多。文章提出一種可以充分利用眾包數據的學習方法,受到對抗學習的啟發,方法使用一個共同的Bi-LSTM和私有的Bi-LSTM來表示標註員的共有信息的和每個人不同的私有化信息,在共有信息的學習過程中,以不同人的私有信息作為目標進行對抗學習。以此為基礎,文章建立了一個基於LSTM-CRF中文命名實體標註器。
貢獻:
1.文章提出了基於對抗神經網路的眾包標註學習模型。 該模型使用由標註員創建的標記數據來訓練NER分類器,同時學習標註員注釋器中的公共和私人特徵。
2.文章通過標註員對話和電子商務領域的標註創建兩個數據集。 實驗結果表明,所提出的方法在所有比較系統中表現最好。
模型圖:
@stonewang
- 《Large Scaled Relation Extraction with Reinforcement Learning》
來源:AAAI2018 論文鏈接
方向:relation extraction
創新點:提出了遠程監督與強化學習結合來訓練關係抽取器的模型
句子的關係抽取是自然語言處理領域一個重要的任務。以前的模型依賴於人工標註的監督數據,而人工標註耗費時間且關係的數量和數據規模有限,不容易拓展到大規模。而使用知識庫進行實體對齊的遠程監督方法的模型雖然不用人工進行數據標註,但它們太關注於抽取一個包的兩個實體之間的關係,不是訓練一個句子的關係抽取器。另外由於遠程監督數據不是直接打上標籤的,並不是含有相同的實體對的句子都可以表達出他們之間的關係。為解決上述問題,本文提出了一種新的遠程監督和強化學習結合的模型,它在強化學習的幫助下把實體對之間的關係作為遠程監督來訓練關係抽取器。
本文的主要工作:
(1) 在遠程監督中使用強化學習的方法來訓練句子的關係抽取器,把句子包的關係作為遠程監督來監視關係抽取器的訓練。
(2) 把句子包中句子的關係抽取出來作為關係抽取器的獎勵,幫助了包的關係的預測。
(3) 在兩種不同的數據集上做了兩個不同的實驗,與效果較好的baseline比較有明顯的提高。
- 《A SIMPLE BUT TOUGH-TO-BEAT BASELINE FOR SENTENCE EMBEDDINGS》
來源:ICLR2017 論文鏈接
方向:句子的向量表示
創新點:提出了一種無監督的忽略句子詞序的有效的句子表示方法(weighted Bag-of -words+remove some special direction)
神經網路在計算詞向量的成功,激勵著人們使用神經網路來生成更長文本的語義向量,比如句子和段落。令人驚訝的是,Wieting等人在ICLR16發表的論文中表明這種複雜的方法並沒有簡單的再訓練已有詞向量的Random Walk on Discourses models的效果好,尤其是在out-of-domain(transfer learning)settings的應用中。本文對此種方法進行了改進,使得產生的句子向量也能夠包含未在句子中出現的詞語(多是與語法有關的詞)的信息,並進行了概率學解釋,另外與多種生成詞向量的方法結合併進行了多組對比試驗,進一步說明此種無監督的句子向量表示方法的驚人效果。
此演算法可以看做兩步:
(1)對已有的詞向量進行加權平均,得到初步的句子向量
(2)對由1得到的所有句子向量進行類似於PCA的主成分分析得到u,用u和它的轉置相乘得到仿射矩陣來對所有的句子向量進行偏移
@戰先生
- 《 A Knowledge-Grounded Neural Conversation Model》
來源:AAAI2018 論文鏈接
解決問題:
神經網路模型能夠產生極其自然的對話交流。儘管如此,這些模型還沒有證明它們可以以事實信息或實體的觀點來合併內容,從而使它們能夠在面向任務的會話應用程序中服務。本文提出了一種全新的、完全由數據驅動的、基於知識的神經會話模型,目的是在沒有插槽的情況下產生更多的內容。
創新點:
1)本文將廣泛使用的SEQ2SEQ方法推廣到會話歷史和外部「fact」上,允許模型在開放域環境中通用和適用。本文的方法在競爭性的SEQ2SEQ基線上有顯著的改進。
2)傳統的對話框可以很容易地將實體和事實注入到使用slot-填充的響應中,但通常是以大量的手工編碼為代價,使得這樣的系統難以擴展到新的域或任務,而本文模型對此有了顯著提高。
3)本文實依賴於完全的數據驅動和基於外部的知識。與外部數據的聯繫至關重要,依賴於非會話的數據,根據上下文將相關知識注入到與用戶的對話中。這種方法的核心思想是,它不僅反應條件基於對話的歷史,但也在外部相關的「事實」當前上下文。只需要一種地面外部信息基於對話上下文(例如,通過簡單的實體名稱匹配),這使得它非常多才多藝,適用於一個open-domain設置。經過訓練的系統在具有競爭性的大規模SEQ2SEQ基線上有顯著的改進。
模型圖:
- 《Deep Semantic Role Labeling with Self-Attention》
來源:AAAI2018 論文鏈接
解決問題:
語義角色標記(SRL)被認為是走向自然語言理解的關鍵一步,並得到了廣泛的研究。近年來,連續神經網路(RNN)的端到端SRL引起了越來越多的關注。然而,對於RNNs來說,處理結構信息和遠程依賴關係仍然是一個很大的挑戰。傳統的SRL方法在很大程度上依賴於句子的句法結構,這帶來了內在的複雜性,並抑制了這些系統的特定領域。在本文中,提出了一個簡單而有效的SRL架構,旨在解決這些問題。
創新點:
本文的模型是建立在自我關注的基礎上的,它可以直接捕獲兩個標記之間的關係,而不考慮它們的距離。本文提出了一種深度注意力神經網路(DEEPATT),用於SRL1的任務。模型依賴於自我關注機制,它直接吸引了輸入的全局依賴。與RNNs相比,自我關注的一個主要優勢是它在一個句子中直接連接兩個任意的tokens。因此,遠端元素可以通過更短的路徑相互作用(O(1) v.s. O(n)),它允許不受阻礙的信息流通過網路。
模型圖:
本文將SRL作為一種生物標記問題。方法非常簡單。如圖所示,最初的話語和相應的謂詞掩碼首先投射到實值向量,即嵌入到下一層的嵌入。在那之後,我們的設計一種深層的注意力神經網路,它將嵌入作為輸入來捕獲句子的嵌套結構和標籤之間的潛在依賴關係。在推理階段,只有關注子層的最頂層輸出被帶到邏輯回歸層來做出最終的決定。
@丸子醬Destiny
- 《Supervised Learning of Universal Sentence Representations from Natural Language Inference Data》
來源:Facebook AI Research 論文鏈接
代碼鏈接:https://github.com/facebookresearch/InferSent
方向:句子表示
解決問題:獲得句子的embedding 表示,表明自然語言推理對於其他 NLP 任務遷移學習的適用性。
創新點:許多 NLP 系統依賴於 word embedding,它是以無監督的方式 (unsupervised) 對大型語料庫進行訓練後得到的。然而,如何將更長的文本(例如句子)編碼成 embedding 表示仍然很困難。
1. 這篇文章展示了使用斯坦福自然語言推理數據集 (Stanford Natural Language Inference dataset) 訓練的通用句子表示
(universial sentence representation) 能夠在多個任務上優於無監督的方法,如SkipThought 向量。2. 本文代碼是基於最近很火的 PyTorch。相比於 TensorFlow 使用靜態圖,research 中使用 PyTorch 動態圖構建神經網路更為方便。
模型圖:
1. The Natural Language Inference task
2. Hierarchical ConvNet
- 《A FOFE-based Local Detection Approach for Named Entity Recognition and Mention Detection》
來源:ACL2017 論文鏈接
方向:NER
解決問題:研究命名實體識別和自然語言處理中所提及的一項新的檢測方法——基於局部檢測的方法。
創新點:它就是依賴於固定大小的序列遺忘編碼(fixed-size ordinally forgetting encoding ,FOFE)方法來將每個片段及其左/右上下文完全編碼為固定大小的表示。然後,使用簡單的前饋神經網路來拒絕或預測每個單獨片段的實體標籤。
模型圖:
@new y
- 《Dialogue Act Sequence Labeling using Hierarchical encoder with CRF》
來源:AAAI 2018 論文鏈接
方向:自然語言理解,對話行為標註
解決問題:構建了一個分層Bi-LSTM,頂層與CRF相結合,實現對對話中的每句話語進行對話行為的分類,將其視為一個序列標註問題。
創新點:
本文採用了分層編碼的結構,以Bi-LSTM對話語中的每個單詞進行編碼(第一層編碼);取最後一個時間點的隱層輸出作為整句話語的編碼,輸入另一個Bi-LSTM層作為對話層級的編碼(第二層編碼);將其輸出作為CRF層的輸入(第三層編碼),以捕捉標籤間的依賴關係,對於話語和標籤間的相關性均實現了建模。與此同時,在實驗階段另外訓練了詞性(part of speech)的embedding 並與詞語相連接作為CRF層的輸入,並證明了詞性信息並不能對結果進行較大改善。
模型圖:
- 《Deconvolutional Latent-Variable Model for Text Sequence Matching
來源:AAAI 2018 論文鏈接
方向:深度生成模型,文本匹配
解決問題:使用逆卷積(Deconvolution)作為深度生成模型VAE的解碼器,用以預測句子的embedding來進行文本匹配任務,解決了深度生成模型在優化上的一些困難。
創新點:
本文針對文本匹配問題提出了一種新的神經變分推測框架,由於深度生成模型本身的特點,能夠更有效的利用未標註數據,在弱監督的情況下取得良好效果。通過使用逆卷積網路作為VAE的解碼器,能夠有效改善文本隱變數模型訓練中的困難,從而得到信息量更豐富的隱變數句子表示。同時,相比於基於LSTM的模型而言,本模型具有更少的參數和更快的訓練速度,並且提升了可並行性。
模型圖:
推薦閱讀:
※關於語音交互的不得不知的技術知識
※torchtext入門教程,輕鬆玩轉文本數據處理
※序列標註任務的常見套路
※我為什麼從技術角度不看好中國的智能音箱
※第二章自然語言處理的主要課題
TAG:自然語言處理 |