機器學習論文筆記(二)Practical Block-wise Neural Network Architecture Generation
(機器學習論文筆記二)Practical Block-wise Neural Network Architecture Generation
實用的基於塊的神經網路體系結構生成論文地址:https://arxiv.org/pdf/1708.05552簡介:這篇文章介紹了一種通過強化學習的方法自動的生成神經網路,來到的一直在向強人工智慧向邁進的過程。筆者認為這篇文章最大的意義在於它完善了我們「造輪子的過程」,在本文中,我們提供了一 個基於塊的網路生成管道,稱為BlockQNN,它使用具 有epsilon-greedy探索策略的Q-Learning範式自動構 建高性能網路。
主要的優點有:
1)與手工製作的最先進的圖像分類網路 相比,它具有競爭性的結果,另外,BlockQNN生成的 最佳網路實現了3.54%的top-1錯誤在CIFAR-10上打敗 了所有現有的自動生成網路。
(2)同時,它在設計 網路中的搜索空間大大減少,僅花費3天32 GPUs;
(3) 此外,它具有很強的普遍性,即建立在CIFAR上的網路 在較大規模的網路上也表現良好,規模較大的 ImageNet數據集。
介紹產生背景
為了適應CNN在CV中飛速的發展,傳統的人工搭建網路的方法已經有些力不從心,我們提出來一種可以吧網路的各個組件模塊化的方法來實現網路的自動生成
比較:與NAS相比,37]和MetaQNN,
NAS:https://www.google.com.hk/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=0ahUKEwjj_PD4hOfaAhVBKpQKHcVXA3EQFgg3MAE&url=%68%74%74%70%73%3a%2f%2f%6f%70%65%6e%72%65%76%69%65%77%2e%6e%65%74%2f%70%64%66%3f%69%64%3d%72%31%55%65%38%48%63%78%67&usg=AOvVaw0tJjG8YIWsFY75XlJFQztw
MateQNN:https://www.google.com.hk/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=0ahUKEwiouLzChefaAhUFFpQKHcBLATEQFggvMAE&url=%68%74%74%70%73%3a%2f%2f%6f%70%65%6e%72%65%76%69%65%77%2e%6e%65%74%2f%70%64%66%3f%69%64%3d%53%31%63%32%63%76%71%65%65&usg=AOvVaw2s-bVKLoGp1A6LhDjRygSH
上面這張圖反映了一個比較的過程
BlockQNN(紅色框右側)與黃色手工製作的網路和綠色的現有自動生成網路相比較。 自動生成普通網路[2, 37]標 記為藍色需要較大的計算成本來搜索每個單層的最佳層類型和超參數,而塊式網路大大降低了僅僅為一個塊搜索結構的成本。 然後通過堆疊生成的塊來構建整個網路。 類似的區塊概念已被證明在手工製作的網路中的優越性,例如以紅色標記的起始塊 和殘留塊。同時我們加入了一個提前終止的策略和分散式非同步計算。
我們設計出來的網路是基於現代inception ,resnet等等架構提前終止 Early Stop Strategy
引入分塊代確實提高了效率。 但是,完成搜索過程 仍然很耗時。 為了進一步加快學習過程,我們引入了 早期停止策略。好的塊在早期停止訓練時不幸地表現得比壞塊差。 同時,我們注意到相應塊的FLOP和密度具有負相關性
分散式非同步框架Framework and Training Details
Distributed :它由三部分組成:主節點,控制器節 點和計算節點。 代理首先在主節點中採樣一批塊結構。 之後,我們將它們存儲在一個控制器節點中,該控制 器節點使用塊結構來構建整個網路並將這些網路分配 給計算節點。https://arxiv.org/pdf/1412.1710.pdf訓練策略:貪心
Block-A,Block-B是無限參數設置,block-c是有限參數設置的,
他的優點主要體現在對資源的極大優化上。並且具有不錯的泛化能力,這一點可以從CIFAR學習 的塊結構轉移到Ima-geNet數據集看出來。summary
使用分散式非同步Q- learning框架和早期停止策略,專註於快速塊結構搜索。
*在一定程度上Block-QNN網路在圖像分類任務中 勝過現代手工製作的網路以及其他自動生成的網路。**在CIFAR上實現最先進的性能的最佳模塊結構可以輕鬆轉移到大型數據集ImageNet,並且與最佳手工網路相比,還可以產生具有競爭力的性能。Ps:加一下個人的感受吧,首先這篇paper是我導師的師弟在自動化所讀博寫的,我覺得我覺得這是一個非常有意義的工作。和以前的工作比起來,她更智能化了,她把我們的人工智慧推向了更高的一個層次,就是通過人工智慧他這個網路的學習能力來優化網路,就好像讓機器學會自己給自己編程一樣的道理,如果我們能把這個優化網路的過程做得更好。那麼我們覺得在未來我們強人工智慧的夢想並不是那麼的遙遠。而且藉助這種生成網路的能力,我們可以更快的加速我們研究的過程,為我們將來的發展增加更多的一種助力。現在我們還只是在一種。比較原始的自己造輪子的過程可是有一天到了我們可以讓機器隨著我們的意志去造輪子的時候那麼我們的發展速度肯定會有一個更大的飛躍。所以我也希望我能親歷那樣的一天。
5月4日深夜12:36,陳揚在宿舍的走廊外寫完。
推薦閱讀:
TAG:深度學習DeepLearning | 神經網路 | 學術論文 |