《Effective Approaches to Attention-based Neural Machine Translation》
05-15
一、主要概念、任務與背景
常見的NMT結構,直接使用encoder最後一個step的隱層state作為decoder的輸入,<eos>就是decoder開始工作的那個trigger
二、本文主要工作、模型
優化一個conditional probability
然後每個時刻的輸出進入一個softmax得到一個vocabulary size的向量,argmax即可
損失函數為交叉熵
三、實驗(1數據2實驗結果3視圖、實驗分析等)
四、總結
推薦閱讀:
※香港大學顧佳濤:非自回歸神經機器翻譯 | 直播預告
※阿里巴巴陳博興:單天翻譯詞量超過千億的秘密
※趣味測評:AI翻譯水平大作戰
※現在的Google翻譯能取代人嗎?
※【讀論文】Neural Machine Translation by Jointly Learning to Align and Traslate