在人工智慧訓練的競賽中,來自日本的書獃子們衝擊著來自Facebook的書獃子們

策劃|Tristan Greene

譯者|Erica Yi

編輯|Emily

AI前線出品| ID:ai-front

今年夏天,Facebook 宣布它在神經網路訓練上的巨大突破。其研究人員能夠在一個小時內,用 256 個 GPU 完成一個圖像處理 AI 的訓練。 一群大學的研究人員也不甘示弱,用 1600 個 Skylake 處理器在 32 分鐘內實現了相關訓練。一個星期後,一支日本的隊伍在 15 分鐘內就完成了該訓練。這就是為什麼我們稱之為 AI 競賽。

訓練一個神經網路的過程和你如何描繪它的過程一樣。 只要你想像它是這樣的:

基本上就是,你要儘可能快地把儘可能多的數據塞進一台計算機,這樣計算機就會對要學的東西有一些基本的了解。

ImageNet 是計算機將圖像與單詞相關聯的一種方式,它允許計算機「查看」圖像並告訴我們看到的是什麼。 如果你想要創建一個能夠查找包含「藍色襯衫」或「爸爸微笑」的圖像的 AI,ImageNet 是很有用的。

目前,ImageNet 的基準是 Resnet50,一個 50 層的神經網路。用這個神經網路在一台非常快的計算機上訓練一個深度學習系統大概需要兩個星期。

為了減少訓練時間,研究人員將多個處理器連接在一起以利用其綜合能力。雖然這並沒有讓所需要的時間成指數級地減少——兩台計算機並沒有將訓練時間從兩周縮減到一天,但是因為減少了很多其他相關的開銷,這種處理方式確實可以允許更加規模化的進行 AI 訓練。

11 月 7 日,一組來自加利福尼亞大學伯克利分校,加州大學戴維斯分校和德州高級計算中心的研究人員在 32 分鐘內完成了對 Resnet50 模型的完整訓練,而且模型精確度也足以與 Facebook 之前在 60 分鐘內訓練出的模型相媲美。

然而,不到一個星期之後,日本人工智慧公司 Preferred Networks 就利用自己的超級計算機(由 1024 個 Nvidia Tesla GPU 組成)在短短 15 分鐘內實現了相同的功能。

根據 Takuya Akiba、Shuji Suzuki 和 Keisuke Fukuda 發布的白皮書,該團隊對於該功能的實現是基於 Facebook 研究人員之前的研究成果。Facebook 的社交網路和 Preferred Networks 公司都使用了 Nvidia Tesla GPU。

日本公司之所以能夠在四分之一的時間內達到與 Facebook 相接近的準確度,也許關鍵點是所用 minibatch 的數量。Facebook 使用了 8,192 個 minibatch,而 Preferred Networks 公司用了 32,768 個。在增加 minibatch 的數量的同時使用四倍的 GPU,允許後者創造出目前最短的時間記錄。

將網路作為數據集來訓練 AI 模型的未來已為時不遠。而就像電影「Short Circuit」中的感性機器人一樣,我們的機器也需要所有能夠得到的輸入來更好的理解人類。

原文鏈接:

thenextweb.com/artifici

引導語:更多的乾貨內容請關注微信AI前線:ID:ai-front


-全文完-

人工智慧已不再停留在大家的想像之中,各路大牛也都紛紛抓住這波風口,投入AI創業大潮。那麼,2017年,到底都有哪些AI落地案例呢?機器學習、深度學習、NLP、圖像識別等技術又該如何用來解決業務問題?

2018年1月11-14日,AICon全球人工智慧技術大會上,一些大牛將首次分享AI在金融、電商、教育、外賣、搜索推薦、人臉識別、自動駕駛、語音交互等領域的最新落地案例,應該能學到不少東西。目前大會8折報名倒計時,更多精彩可點擊閱讀原文詳細了解。

t.cn/Rl2MftP


推薦閱讀:

翻譯:給創始人和 CTO 們的 React 許可協議解惑
哪個互聯網公司使用 facebook thrift 做底層架構,實現高性能、可擴展的web應用?引入thrift之後的優缺點是什麼?
研究人工智慧三十年,Facebook AI 負責人Yann LeCun到底有多牛?
如何評價嘲諷帝吧出征FB的人為小粉紅?

TAG:人工智能 | Facebook |