直播實錄 | 非自回歸神經機器翻譯 + ICLR 2018 論文解讀
本文為 3 月 9 日,香港大學博士生——顧佳濤博士在第 24 期 PhD Talk 中的直播分享實錄。
在本期 PhD Talk 中,來自香港大學的博士生顧佳濤,向大家介紹了他們在加速神經機器翻譯(NMT)方向的一些進展。
本次 Talk 分為三部分:
第一部分以 Google Brain 的 Transformer 為基礎,嘉賓簡要介紹了一些神經機器翻譯的基本知識、主要進展和局限。
第二部分是這期的主要內容,嘉賓以第一作者身份,為大家詳細介紹了他們最近在 ICLR 2018 上發表的文章 Non-autoregressive Neural Machine Translation。本文嘗試用非自回歸的方式改造 Transformer,在性能下降不多的情況下實現 10 倍左右的解碼速度。
最後,作為 brainstorming,嘉賓和大家一起探討了對於非自回歸解碼幾個已經實現或者可能的研究方向和應用。
論文 | Non-Autoregressive Neural Machine Translation
鏈接 | https://www.paperweekly.site/papers/1093
作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher
>>>> 獲取完整PPT和視頻
關注「PaperWeekly」微信公眾號,回復「20180309」獲取下載鏈接。
點擊以下標題查看往期實錄:
騰訊AI Lab塗兆鵬:如何提升神經網路翻譯的忠實度
微軟亞洲研究院論文解讀:GAN在網路特徵學習中的應用
微軟亞洲研究院吳俁:基於動態詞表的對話生成研究
基於生成模型的事件流研究 + NIPS 2017 論文解讀
亞馬遜高級應用科學家熊元駿:人類行為理解研究進展
清華大學馮珺:基於強化學習的關係抽取和文本分類
基於雙語主題模型的跨語言層次分類體系匹配
*查看更多往期實錄,請點擊PaperWeekly公眾號底部精品欄目菜單。
本文由 AI 學術社區 PaperWeekly 精選推薦,社區目前已覆蓋自然語言處理、計算機視覺、人工智慧、機器學習、數據挖掘和信息檢索等研究方向,點擊即刻加入社區!
我是彩蛋
解鎖新姿勢:用微信刷論文!
PaperWeekly小程序上線啦
今日arXiv√猜你喜歡√熱門資源√
隨時緊跟最新最熱論文
解鎖方式
1. 掃描下方小程序碼打開小程序
2. 用PaperWeekly社區賬號進行登陸
3. 登陸後即可解鎖所有功能
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平台。如果你研究或從事 AI 領域,歡迎在公眾號後台點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
微信公眾號:PaperWeekly
新浪微博:@PaperWeekly
推薦閱讀:
※現在的Google翻譯能取代人嗎?
※基於構建對偶任務的半監督學習調研-1-《Dual Learning for Machine Translation》
※從冷戰到深度學習:一篇圖文並茂的機器翻譯史