聽說你剛中了NIPS?恭喜(研究德撲、老鼠鬍鬚等AI的都入圍了)
允中 發自 凹非寺
量子位 出品 | 公眾號 QbitAI
今天凌晨,NIPS 2017開始揭榜。
作為機器學習領域的頂級會議,NIPS 2017共收到3240篇論文投稿,毫不意外這個數字又創了新高。有678篇論文被選中作為大會論文,比例20.9%。
其中有40篇被選中進行口頭報告(oral),112篇選為spotlight進行展示。
接收到NIPS 2017入選通知郵件的研究者,紛紛都迫不及待的開始與外界分享這一喜悅。或曰:「登斯NIPS也,則有心曠神怡,寵辱偕忘,把酒臨風,其喜洋洋者矣。」
當然也有遺憾被拒的,比方量子位在微博上看到的這一幕:形成對比的兩重天。
很多入圍者在慶祝之餘,還附帶了arXiv鏈接。
什麼?已經在arXiv上發表?真的可以么?
對,沒關係。NIPS 2017要求提交的論文,不能是已經公開/接受出版,或者曾經投遞給其他會議/期刊。但是允許提前發表在http://arXiv.org上。
當然還有很多人並不喜歡這麼做,所以他們入選的論文稍後會公開發布。
現在到底有哪些入圍論文已經可以看到了?量子位手動統計了一下目前的情況,數據來自微博、推特、reddit等公開渠道。
Oral
Safe and Nested Subgame Solving for Imperfect-Information Games
在NIPS 2017接受的口頭報告展示論文中,我們發現了一篇「明星」論文。來自卡內基梅隆大學博士生Noam Brown和Tuomas Sandholm教授。
還記得年初叱吒德州撲克界的AI么?量子位3月還在CMU獨家專訪了這兩位學者。這次的論文,就是他們最新的研究成果總結。
摘要簡介:不完美信息博弈問題,雖然不能通過拆解為子博弈解決,但可以通過不相交的子博弈來逼近解決方案,或者改進現有解決方案。
論文地址:
https://arxiv.org/pdf/1705.02955
Toward Goal-Driven Neural Network Models for the Rodent Whisker-Trigeminal System
這是另一篇看起來很好玩的論文。第一作者是來自斯坦福的博士生Chengxu Zhuang(庄程旭),其他作者來自MIT、西北大學以及斯坦福。
摘要簡介:很大程度上,嚙齒動物(老鼠什麼的)通過鬍鬚「看到」世界。在這次的研究中,我們採用目標驅動的深度神經網路對鬍鬚-三叉神經系統進行建模。
首先,我們構建了一個生物物理學實現的老鼠鬍鬚陣列模型。然後,生成一個鬍鬚掃過各種3D對象的大型數據集,包括各種不同的姿勢、角度和速度。接下來,我們訓練了幾個不同架構的DNN來解決這個數據集中的形狀識別任務。
最後我們證明,鬍鬚-三叉神經系統的DNN模型值得深入研究。
論文地址:
https://arxiv.org/abs/1706.07555
TernGrad: Ternary Gradients to Reduce Communication in Distributed Deep Learning
這篇論文的作者是杜克大學的博士生溫偉、陳怡然教授等人。
摘要簡介:用於同步梯度和參數的高網路通信成本,是眾所周知的分散式訓練瓶頸。在這個研究中,我們提出TernGrad:使用三元梯度來在數據並行中加速分散式深度學習。
論文地址:
https://arxiv.org/pdf/1705.07878
△ NIPS 2017發給陳教授的郵件
Robust and Efficient Transfer Learning with Hidden-Parameter Markov Decision Processes
這篇論文的作者三位來自哈佛大學,一位來自布朗大學。
摘要簡介:這是一個新的隱馬爾可夫決策過程(HiP-MDP)方案,使用貝葉斯神經網路替換之前基於高斯高程的模型。新框架將HiP-MDP的應用範圍擴大到更高維度和更複雜動態的領域。
論文地址:
https://arxiv.org/abs/1706.06544
End-to-end Differentiable Proving
兩位作者分別來自牛津和倫敦大學學院。
摘要簡介:這是一個端到端的微分定理證明神經網路,運算基於符號的密集向量表示。具體來說,我們使用徑向基函數內核,基於符號向量表示構建了一個微分計算,用以取代符號統一(symbolic unification)。
論文地址:
http://arxiv.org/abs/1705.11040
A Linear-Time Kernel Goodness-of-Fit Test
作者來自倫敦大學學院、巴黎綜合理工大學、日本統計數學研究所。
摘要簡介:我們提出了一種擬合優度的新型自適應測試。我們證明了新的測試,比以前的線性時間內核測試具有更大的相對效率。
論文地址:
https://arxiv.org/abs/1705.07673
On Structured Prediction Theory with Calibrated Convex Surrogate Losses
作者來自法國國家信息與自動化研究所、蒙特利爾大學。
摘要簡介:這篇論文提出了一種結構化預測的新見解。對於任務丟失,我們構建了一個可以通過隨機梯度下降優化的凸替代,並證明了所謂「校準函數」的緊界,將過量替代風險與實際風險相關聯。
論文地址:
https://arxiv.org/abs/1703.02403
Spotlight
Overcoming Catastrophic Forgetting by Incremental Moment Matching
作者來自首爾國立大學等韓國研究機構。
摘要簡介:為了解決災難性遺忘這個問題,我們提出了使用貝葉斯神經網路框架構建的增量矩匹配(IMM)。
論文地址:
https://arxiv.org/abs/1703.08475
入選oral和Spotlight展示環節的論文,量子位初步找到這些。更多的內容,期待官方統一公布。以下還有一些NIPS 2017接受的論文。
其他入選論文
Dynamic Safe Interruptibility for Decentralized Multi-Agent Reinforcement Learning
分散式多智能體強化學習的動態安全中斷
論文地址:
https://arxiv.org/abs/1704.02882
Byzantine-Tolerant Machine Learning
拜占庭容錯機器學習
論文地址:
https://arxiv.org/abs/1703.02757
Causal Effect Inference with Deep Latent-Variable Models
因果效應推理與深度潛變數模型
論文地址:
https://arxiv.org/abs/1705.08821
Learning Hierarchical Information Flow with Recurrent Neural Modules
用循環神經模塊學習分層信息流
論文地址:
https://arxiv.org/pdf/1706.05744
SVCCA: Singular Vector Canonical Correlation Analysis for Deep Understanding and Improvement
SVCCA:深度理解和改進的奇異向量規範相關分析
論文地址:
https://arxiv.org/abs/1706.05806
Structured Bayesian Pruning via Log-Normal Multiplicative Noise
通過對數正態乘法雜訊構造貝葉斯修剪
論文地址:
https://arxiv.org/abs/1705.07283
SafetyNets: Verifiable Execution of Deep Neural Networks on an Untrusted Cloud
SafetyNets:在不可信雲上可信賴的運行深度神經網路
論文地址:
https://arxiv.org/pdf/1706.10268
Working hard to know your neighbor』s margins: Local descriptor learning loss
努力學習臨近的邊緣:本地描述符學習損失
論文地址:
https://arxiv.org/abs/1705.10872
Emergence of Language with Multi-agent Games: Learning to Communicate with Sequences of Symbols
多智能體遊戲語言的出現:學習與符號序列進行溝通
論文地址:
https://arxiv.org/abs/1705.11192
Practical Bayesian Optimization for Model Fitting with Bayesian Adaptive Direct Search
貝葉斯自適應直接搜索模型擬合的實際貝葉斯優化
論文地址:
https://arxiv.org/abs/1705.04405
GitHub地址:
https://github.com/lacerbi/bads
On Tensor Train Rank Minimization: Statistical Efficiency and Scalable Algorithm
Tensor Train等級最小化:統計效率和可擴展演算法
論文地址:
https://arxiv.org/abs/1708.00132
PixelGAN Autoencoders
PixelGAN自動編碼器
論文地址:
http://arxiv.org/abs/1706.00531
好啦,先到這裡。最後,還是恭喜各位。
以及,如果有更多關於這次NIPS 2017想說的東西,不管是談談論文,發發感想,做做總結,都歡迎聯繫量子位~
— 完 —
歡迎大家關注我們的專欄:量子位 - 知乎專欄
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
量子位 QbitAI
?? ? 追蹤AI技術和產品新動態
推薦閱讀:
※一文了解各種卷積結構原理及優劣
※MATLAB神經網路(二):BP非線性建模
※【神經網路】激活函數面面觀
※Tensorflow實現深層學習完備流程