這 8 份「Paper + Code」,你一定用得上 | PaperDaily #08
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背後的探索和思考。 在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。 點擊即刻加入社區,查看更多最新論文推薦。
[ 自然語言處理 ]
SLING: A framework for frame semantic parsing
@paperweekly 推薦
#Semantic Parsing
一個非常快的 semantic parsing 工具,工作來自 Google。
論文鏈接:http://www.paperweekly.site/papers/957
代碼鏈接:https://github.com/google/sling
Optimal Hyperparameters for Deep LSTM-Networks for Sequence Labeling Tasks
@wangmuy 推薦
#Sequence Labeling
通過超過 50000 次實驗,綜合評價序列標註任務(POS,Chunking,NER,Entities,Events)中的超參數作用。將比較有名的序列標註都實現了一遍,並大量實驗求證超參數的作用。
論文鏈接:http://www.paperweekly.site/papers/962
代碼鏈接:https://github.com/UKPLab/emnlp2017-bilstm-cnn-crf
Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering
@jamiechoi 推薦
#QA
目前 coco leaderboard 第二名,來自微軟的論文。 提出了自下而上(bottom-up)和自上而下的 attention (top-down) 機制。其中 bottom-up 是利用 Faster R-CNN 提出圖像區域,每個區域都具有相關聯的特徵向量,而 top-down 的機制確定特徵的權重。
論文鏈接:http://www.paperweekly.site/papers/754
代碼鏈接:https://github.com/peteanderson80/bottom-up-attention
[ 計算機視覺 ]
Progressive Growing of GANs for Improved Quality, Stability, and Variation
@Gapeng 推薦
#GAN
NVIDIA 新作,更穩定的 GAN 訓練,以及更高解析度的圖像生成,1024*1024 超高解析度的 CelebA 圖像生成。
論文鏈接:http://www.paperweekly.site/papers/1008
代碼鏈接:https://github.com/tkarras/progressive_growing_of_gans
Learning to Compose Domain-Specific Transformations for Data Augmentation
@corenel 推薦
#Data Augmentation
提出了一種不需要特定領域知識的數據擴增的方法,能夠生成大量標記樣本,並且不損失類別信息。按文中所說,確實能夠提升一定的分類模型的精度。
論文鏈接:http://www.paperweekly.site/papers/919
代碼鏈接:https://github.com/HazyResearch/tanda
Class-specific Poisson denoising by patch-based importance sampling
@falconwj 推薦
#Image Denoising
將圖像降噪問題與高級視覺問題聯繫在一起,有針對性的對不同圖像內容進行不同程度的降噪。解決了現有手法(BM3d)在 texture 圖像降噪上的過處理問題。
論文鏈接:http://www.paperweekly.site/papers/999
代碼鏈接:https://github.com/Ding-Liu/DeepDenoising
[ 機器學習 ]
Reinforcement Learning for Bandit Neural Machine Translation with Simulated Human Feedback
@paperweekly 推薦
#Deep Reinforcement Learning
EMNLP 2017 論文,通過增強學習的方法來做 NMT,提出了一種 actor-critic 與 encoder-decoder 結合的框架。
論文鏈接:http://www.paperweekly.site/papers/951
代碼鏈接:https://github.com/khanhptnk/bandit-nmt
Gated Orthogonal Recurrent Units: On Learning to Forget
@datou 推薦
#RNN
文章是在 GRU 的基礎上做了兩個修改,一是將參數矩陣 U 變為正交矩陣,而是將 tanh 改為論文提的 modelRELU,對於某些實驗有較明顯的提高。
論文鏈接:http://www.paperweekly.site/papers/1002
代碼鏈接:https://github.com/jingli9111/GORU-tensorflow
本文由 AI 學術社區 PaperWeekly 精選推薦,社區目前已覆蓋自然語言處理、計算機視覺、人工智慧、機器學習、數據挖掘和信息檢索等研究方向,點擊即刻加入社區!
遊戲時間
GAN還是不GAN?— GAN主題論文共讀小組
論文提名√在線投票√論文共讀√
活動形式:語音直播 + 協同批註
遊戲規則
1. 自由推薦任何與GAN有關的論文
2. 投票支持你想讀的論文
3. 每周六根據投票結果選出本期論文
報名方法
添加微信(zhangjun168305),請註明「GAN」
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平台。如果你研究或從事 AI 領域,歡迎在公眾號後台點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
微信公眾號:PaperWeekly
新浪微博:@PaperWeekly
推薦閱讀:
※循環神經網路(RNN)介紹2:keras代碼分析
※循環神經網路(RNN)介紹3:RNN的反向傳播演算法Backpropagation Through Time (BPTT)
※簡單的Char RNN生成文本
※用循環神經網路進行文件無損壓縮:斯坦福大學提出DeepZip
TAG:强化学习ReinforcementLearning | 生成对抗网络GAN | RNN |