《Effective Approaches to Attention-based Neural Machine Translation》

一、主要概念、任務與背景

常見的NMT結構,直接使用encoder最後一個step的隱層state作為decoder的輸入,<eos>就是decoder開始工作的那個trigger

二、本文主要工作、模型

優化一個conditional probability

然後每個時刻的輸出進入一個softmax得到一個vocabulary size的向量,argmax即可

損失函數為交叉熵

三、實驗(1數據2實驗結果3視圖、實驗分析等)

四、總結

推薦閱讀:

香港大學顧佳濤:非自回歸神經機器翻譯 | 直播預告
阿里巴巴陳博興:單天翻譯詞量超過千億的秘密
趣味測評:AI翻譯水平大作戰
現在的Google翻譯能取代人嗎?
【讀論文】Neural Machine Translation by Jointly Learning to Align and Traslate

TAG:自然語言處理 | 機器翻譯 |