本期最新 9 篇論文,每一篇都想推薦給你 | PaperDaily #14
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背後的探索和思考。 在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。 點擊即刻加入社區,查看更多最新論文推薦。
[ 自然語言處理 ]
Word Translation Without Parallel Data
@Ttssxuan 推薦
#Unsupervised Learning
本文貢獻:
? 一種無需平行語料的無監督詞翻譯方案
? 緩和 hubness problem 的方案
? 無監督驗證與選參方法
? 證明本方法在詞料較少的語言的適用性
? 多種語言的 詞翻譯結果
主要價值:
? 無監督和無平行語料的訓練方案
? 對抗學習 的應用
困難和思路:
? 無監督訓練:使用對抗學習使得 兩種語言在目標空間分布重合
? 無監督驗證:計算翻譯對之間的平均 cosin 距離,用於驗證和調參
? 生成詞典:使用 CSLS 找出翻譯結果
論文鏈接:http://www.paperweekly.site/papers/1097
Generalized End-to-End Loss for Speaker Verification
@Drin_Peng 推薦
#Speaker Recognition
這篇文章是 Google 投 ICASSP2018 的,本文在原始端到端框架上重新設計了更加具有可分性的判別函數和度量距離(1. 損失函數和清華大學王東老師投 ICASSP2018 的 FULL-INFO TRAINING FOR DEEP SPEAKER FEATURE LEARNING 文章有異曲同工之妙)。此外還應用了 domain adaptation,藉助大數據集訓練了小數據集。這些方法減少了訓練時間(60%)提高了準確率(10%)。
論文鏈接:http://www.paperweekly.site/papers/1121
End-to-End Adversarial Memory Network for Cross-domain Sentiment Classification
@robertdlut 推薦
#Sentiment Classification
該論文是香港科技大學楊強老師團隊的工作,發表在 IJCAI2017 上。該論文在跨領域情感分類任務上使用了一個端到端的對抗記憶網路進行遷移學習。
該網路有兩部分組成,一個情感分類器(目的找到對情感分類重要的特徵),一個領域分類器(目的在於找到所有領域都共享的特徵)。在領域分類器中使用了對抗訓練來學習共享特徵。然後這兩部分同時訓練,來選出特徵即能夠有效進行情感分類,又是所有領域都存在的。在遷移學習中使用對抗訓練,值得學習。
論文鏈接:http://www.paperweekly.site/papers/1085
[ 計算機視覺 ]
Unsupervised Adaptation for Deep Stereo
@lisabug 推薦
#Person Re-identification
文章有何貢獻:本文提出了一種新的 fine-tuning 的方法使在大量合成數據上訓練的 DispNet 可以遷移到無 groudtruth 或者只有極少量的 groundtruth 的實際數據集上。
本文研究的問題有何價值:雙目深度估計的標籤現實中很難獲得,本文提出的 fine-tuning 方法可以在沒 有groundtruth 的情況下將模型遷移過來。
所研究問題有何困難:如何獲得可靠的監督信息來 fine-tune。
本文的解決思路是怎樣的:文章受在 Kitti 數據集上 fine-tune 的啟發,發現利用稀疏的標籤也可以很好地對模型進行訓練。文章利用傳統演算法如 AD-CENSUS 或 SGM 生成 label 來作為 groundtruth, 同時利用 CCCN(一種 confidence measure 的方法)來選取可信度高的 label,只利用這部分置信度高的 sparse label 來 fine-tune。
論文鏈接:http://www.paperweekly.site/papers/1084
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices
@chenhong 推薦
#Object Classification
分類網路是計算機視覺的基礎,目標追蹤定位識別都可以分割到分類實現。分類網路在嵌入式設備比如手機等智能終端中應用,是商業化的必然趨勢。Face++ 團隊提出的 ShuffleNet,基於 mobilenet 的改進,具有實現更高效的優勢。
論文鏈接:http://www.paperweekly.site/papers/1113
Representation Learning by Rotating Your Faces
@993917172 推薦
#Face Capture
貢獻:與現有的方法 SRGAN 等不同,該論文建立了一個帶有編碼-解碼結構的生成器,由編碼器輸入任意姿態的人臉圖像,由解碼器輸出擺正姿態的人臉圖像。此外,該論文的判別器不僅用來分辨真實和人造圖像,還用來預測人臉身份信息。
研究價值:現實中,受到多種因素影響,用戶所獲得的監控視頻中人臉圖像往往質量較低,且人臉圖像姿態較多,這些因素都對人臉識別等應用造成影響。
研究困難:在圖像質量評價中,生成對抗網路的實驗結果圖具有更好的主觀結果圖,但是它的客觀評價未達到最優結果。
未來可能研究方向:未來,可以將人臉識別與生成對抗網路更好的結合,生成器與判別器的密集連接將成為一種可能。
論文鏈接:http://www.paperweekly.site/papers/1106
[ 機器學習 ]
NeST: A Neural Network Synthesis Tool Based on a Grow-and-Prune Paradigm
@paperhwd 推薦
#Neural Networks
文章提出了一種在訓練過程中連接、生長、移除神經元的神經網路。這種神經網路使用梯度和神經元來生長和修剪,從而實現權重和結構的同時訓練。此演算法可以同時實現神經網路結構的自動選擇和超高效壓縮。
論文鏈接:http://www.paperweekly.site/papers/1116
Neural Discrete Representation Learning
@Synced 推薦
#Neural Network Toolkit
DeepMind 最近提出的 VQ-VAE 是一種簡單而強大的生成模型,結合向量量化和變分自編碼器學習離散表示,可以實現在圖像識別、語音和對話等任務上的無監督學習。
論文鏈接:http://www.paperweekly.site/papers/1100
An Empirical Analysis of Multiple-Turn Reasoning Strategies in Reading Comprehension Tasks
@zhangjun 推薦
#Probabilistic Reasoning
本文通過實驗得出結論,在機器閱讀理解任務中多輪推理將會得到更好的結果,這裡用增強學習對輪數進行控制。
論文鏈接:http://www.paperweekly.site/papers/1099
本文由 AI 學術社區 PaperWeekly 精選推薦,社區目前已覆蓋自然語言處理、計算機視覺、人工智慧、機器學習、數據挖掘和信息檢索等研究方向,點擊即刻加入社區!
我是彩蛋
解鎖新姿勢:用微信刷論文!
PaperWeekly小程序上線啦
今日arXiv√猜你喜歡√熱門資源√
隨時緊跟最新最熱論文
解鎖方式
1. 掃描下方小程序碼打開小程序
2. 用PaperWeekly社區賬號進行登陸
3. 登陸後即可解鎖所有功能
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平台。如果你研究或從事 AI 領域,歡迎在公眾號後台點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
微信公眾號:PaperWeekly
新浪微博:@PaperWeekly
推薦閱讀: