聽說你剛中了NIPS?恭喜(研究德撲、老鼠鬍鬚等AI的都入圍了)

允中 發自 凹非寺

量子位 出品 | 公眾號 QbitAI

今天凌晨,NIPS 2017開始揭榜。

作為機器學習領域的頂級會議,NIPS 2017共收到3240篇論文投稿,毫不意外這個數字又創了新高。有678篇論文被選中作為大會論文,比例20.9%。

其中有40篇被選中進行口頭報告(oral),112篇選為spotlight進行展示。

接收到NIPS 2017入選通知郵件的研究者,紛紛都迫不及待的開始與外界分享這一喜悅。或曰:「登斯NIPS也,則有心曠神怡,寵辱偕忘,把酒臨風,其喜洋洋者矣。

當然也有遺憾被拒的,比方量子位在微博上看到的這一幕:形成對比的兩重天。

很多入圍者在慶祝之餘,還附帶了arXiv鏈接。

什麼?已經在arXiv上發表?真的可以么?

對,沒關係。NIPS 2017要求提交的論文,不能是已經公開/接受出版,或者曾經投遞給其他會議/期刊。但是允許提前發表在arXiv.org上。

當然還有很多人並不喜歡這麼做,所以他們入選的論文稍後會公開發布。

現在到底有哪些入圍論文已經可以看到了?量子位手動統計了一下目前的情況,數據來自微博、推特、reddit等公開渠道。

Oral

Safe and Nested Subgame Solving for Imperfect-Information Games

在NIPS 2017接受的口頭報告展示論文中,我們發現了一篇「明星」論文。來自卡內基梅隆大學博士生Noam Brown和Tuomas Sandholm教授。

還記得年初叱吒德州撲克界的AI么?量子位3月還在CMU獨家專訪了這兩位學者。這次的論文,就是他們最新的研究成果總結。

摘要簡介:不完美信息博弈問題,雖然不能通過拆解為子博弈解決,但可以通過不相交的子博弈來逼近解決方案,或者改進現有解決方案。

論文地址:

arxiv.org/pdf/1705.0295

Toward Goal-Driven Neural Network Models for the Rodent Whisker-Trigeminal System

這是另一篇看起來很好玩的論文。第一作者是來自斯坦福的博士生Chengxu Zhuang(庄程旭),其他作者來自MIT、西北大學以及斯坦福。

摘要簡介:很大程度上,嚙齒動物(老鼠什麼的)通過鬍鬚「看到」世界。在這次的研究中,我們採用目標驅動的深度神經網路對鬍鬚-三叉神經系統進行建模。

首先,我們構建了一個生物物理學實現的老鼠鬍鬚陣列模型。然後,生成一個鬍鬚掃過各種3D對象的大型數據集,包括各種不同的姿勢、角度和速度。接下來,我們訓練了幾個不同架構的DNN來解決這個數據集中的形狀識別任務。

最後我們證明,鬍鬚-三叉神經系統的DNN模型值得深入研究。

論文地址:

arxiv.org/abs/1706.0755

TernGrad: Ternary Gradients to Reduce Communication in Distributed Deep Learning

這篇論文的作者是杜克大學的博士生溫偉、陳怡然教授等人。

摘要簡介:用於同步梯度和參數的高網路通信成本,是眾所周知的分散式訓練瓶頸。在這個研究中,我們提出TernGrad:使用三元梯度來在數據並行中加速分散式深度學習。

論文地址:

arxiv.org/pdf/1705.0787

NIPS 2017發給陳教授的郵件

Robust and Efficient Transfer Learning with Hidden-Parameter Markov Decision Processes

這篇論文的作者三位來自哈佛大學,一位來自布朗大學。

摘要簡介:這是一個新的隱馬爾可夫決策過程(HiP-MDP)方案,使用貝葉斯神經網路替換之前基於高斯高程的模型。新框架將HiP-MDP的應用範圍擴大到更高維度和更複雜動態的領域。

論文地址:

arxiv.org/abs/1706.0654

End-to-end Differentiable Proving

兩位作者分別來自牛津和倫敦大學學院。

摘要簡介:這是一個端到端的微分定理證明神經網路,運算基於符號的密集向量表示。具體來說,我們使用徑向基函數內核,基於符號向量表示構建了一個微分計算,用以取代符號統一(symbolic unification)。

論文地址:

arxiv.org/abs/1705.1104

A Linear-Time Kernel Goodness-of-Fit Test

作者來自倫敦大學學院、巴黎綜合理工大學、日本統計數學研究所。

摘要簡介:我們提出了一種擬合優度的新型自適應測試。我們證明了新的測試,比以前的線性時間內核測試具有更大的相對效率。

論文地址:

arxiv.org/abs/1705.0767

On Structured Prediction Theory with Calibrated Convex Surrogate Losses

作者來自法國國家信息與自動化研究所、蒙特利爾大學。

摘要簡介:這篇論文提出了一種結構化預測的新見解。對於任務丟失,我們構建了一個可以通過隨機梯度下降優化的凸替代,並證明了所謂「校準函數」的緊界,將過量替代風險與實際風險相關聯。

論文地址:

arxiv.org/abs/1703.0240

Spotlight

Overcoming Catastrophic Forgetting by Incremental Moment Matching

作者來自首爾國立大學等韓國研究機構。

摘要簡介:為了解決災難性遺忘這個問題,我們提出了使用貝葉斯神經網路框架構建的增量矩匹配(IMM)。

論文地址:

arxiv.org/abs/1703.0847

入選oral和Spotlight展示環節的論文,量子位初步找到這些。更多的內容,期待官方統一公布。以下還有一些NIPS 2017接受的論文。

其他入選論文

Dynamic Safe Interruptibility for Decentralized Multi-Agent Reinforcement Learning

分散式多智能體強化學習的動態安全中斷

論文地址:

arxiv.org/abs/1704.0288

Byzantine-Tolerant Machine Learning

拜占庭容錯機器學習

論文地址:

arxiv.org/abs/1703.0275

Causal Effect Inference with Deep Latent-Variable Models

因果效應推理與深度潛變數模型

論文地址:

arxiv.org/abs/1705.0882

Learning Hierarchical Information Flow with Recurrent Neural Modules

用循環神經模塊學習分層信息流

論文地址:

arxiv.org/pdf/1706.0574

SVCCA: Singular Vector Canonical Correlation Analysis for Deep Understanding and Improvement

SVCCA:深度理解和改進的奇異向量規範相關分析

論文地址:

arxiv.org/abs/1706.0580

Structured Bayesian Pruning via Log-Normal Multiplicative Noise

通過對數正態乘法雜訊構造貝葉斯修剪

論文地址:

arxiv.org/abs/1705.0728

SafetyNets: Verifiable Execution of Deep Neural Networks on an Untrusted Cloud

SafetyNets:在不可信雲上可信賴的運行深度神經網路

論文地址:

arxiv.org/pdf/1706.1026

Working hard to know your neighbor』s margins: Local descriptor learning loss

努力學習臨近的邊緣:本地描述符學習損失

論文地址:

arxiv.org/abs/1705.1087

Emergence of Language with Multi-agent Games: Learning to Communicate with Sequences of Symbols

多智能體遊戲語言的出現:學習與符號序列進行溝通

論文地址:

arxiv.org/abs/1705.1119

Practical Bayesian Optimization for Model Fitting with Bayesian Adaptive Direct Search

貝葉斯自適應直接搜索模型擬合的實際貝葉斯優化

論文地址:

arxiv.org/abs/1705.0440

GitHub地址:

github.com/lacerbi/bads

On Tensor Train Rank Minimization: Statistical Efficiency and Scalable Algorithm

Tensor Train等級最小化:統計效率和可擴展演算法

論文地址:

arxiv.org/abs/1708.0013

PixelGAN Autoencoders

PixelGAN自動編碼器

論文地址:

arxiv.org/abs/1706.0053

好啦,先到這裡。最後,還是恭喜各位。

以及,如果有更多關於這次NIPS 2017想說的東西,不管是談談論文,發發感想,做做總結,都歡迎聯繫量子位~

— 完 —

歡迎大家關注我們的專欄:量子位 - 知乎專欄

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

量子位 QbitAI

?? ? 追蹤AI技術和產品新動態


推薦閱讀:

一文了解各種卷積結構原理及優劣
MATLAB神經網路(二):BP非線性建模
【神經網路】激活函數面面觀
Tensorflow實現深層學習完備流程

TAG:NIPS | 人工智能 | 神经网络 |