SamplePairing:針對圖像處理領域的高效數據增強方式 | PaperDaily #34
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背後的探索和思考。 在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。 點擊即刻加入社區,查看更多最新論文推薦。
本期推薦的論文筆記來自 PaperWeekly 社區用戶 @chenhong。本文提出了一種高效數據增強方式 SamplePairing,沒有任何公式,沒有任何框架,任何 CPU 都能處理。
如果你對本文工作感興趣,點擊即可查看原論文。
關於作者:陳泰紅,小米高級演算法工程師,研究方向為人臉檢測識別,手勢識別與跟蹤。
論文 | Data Augmentation by Pairing Samples for Images Classification
鏈接 | https://www.paperweekly.site/papers/1523
作者 | chenhong
論文動機
這是 IBM 在 arXiv,2018 年 1 月 9 日新掛的一篇論文,主要研究數據增強。核心思想很簡單,小學生都會,求平均值。這是我見到 CNN 領域最簡單的一篇論文。
數據增強是機器學習任務中廣泛使用的技術,如圖像處理領域,人工標註數據成本昂貴,而 CNN 的訓練有需要大量標註數據避免過擬合。圖像處理領域常用的數據增強技術有旋轉、扭曲、添加少量噪音、從原圖像裁剪等。
本文提出了一種高效數據增強方式 SamplePairing:從訓練集隨機抽取的兩幅圖像疊加合成一個新的樣本(像素取平均值),可以使訓練集規模從 N 擴增到 N*N。沒有任何公式,沒有任何框架,簡單易懂簡潔明了,任何 CPU 都能處理。
論文在使用 GoogLeNet,在 ILSVRC 2012 數據集從 top-1 錯誤率從 33.5% 降低到 29%,在 CIFAR-10 數據集 top-1 錯誤率從 8.22% 降低到 6.93%。這對訓練集有限的任務而言,提高了模型的準確性。
模型介紹
論文的模型結構 SamplePairing 如上圖所示。模型雖然很簡單,但是還得消化一下為什麼簡單有效。
先說一下實現過程。訓練圖像 A 是隨機的,從訓練集隨機抓取圖像 B,(A 和 B 都是 ILSVRC2012 的圖像,解析度 256x256)兩者都經過基本的數據增強(隨機翻轉,萃取),解析度變為 224x224,對兩幅圖像求平均值,但是 label採用的是 A,之後送入 GoogLeNet 模型。因此,SamplePairing 隨機從圖像集中創建新的圖像,而且 label B 未使用。
圖像 A 和 B 在模型中的權重是一致的,即使使用大型網路,訓練誤差也不能變成 0,訓練精度平均不能超過 50%。對於 N 分類器,最大訓練精度是 0.5+1/(Nx2)。
儘管 SamplePairing 的訓練精度不會很高,當停止 SamplePairing 作為最終微調時的訓練,訓練精度和驗證精度很快改善。經過微調模型,使用 SamplePairing 訓練的網路比未使用 SamplePairing 訓練的模型都高很多。論文認為使用 SamplePairing 是一種正則化。
在 mix 之前有其他數據增強方式,在 CPU 執行,而反向傳播的訓練過程在 GPU 執行,這樣 CPU 和 GPU 並行計算,沒有限制增加總的訓練時間。
論文的訓練過程如下:
1. 先不使用 SamplePairing 數據增強訓練,而是先使用傳統的數據增強訓練網路。
2. 完成一個 epoch(ILSVRC)或者 100 個 epoch(其他數據集),加入 SamplePairing 數據增強。
3. 間歇性禁止 SamplePairing。對於 ILSVRC 數據集,為 300,000 個圖像啟用 SamplePairing,然後為下一個 100,000 個圖像禁用它。對於其他數據集,啟用 8 個 epoch,在接下來的 2 個 epoch 禁止 SamplePairing。
4. 在訓練損失函數和精度穩定後,禁止 SamplePairing 作為微調。
實驗
論文的模型在多個數據集進行驗證:ILSVRC 2012,CIFAR-10,CIFAR-100,以及 Street View House Numbers (SVHN) datasets。
以 CIFAR-10 為例,validation 誤差一致在波浪形震蕩,800epoch 之後才趨於穩定,此時誤差才小於不使用 SamplePairing 的模型。
論文表 1 所示 training error 會增加,而 validation error 會減小,說明正則化效果明顯。在 CIFAR 訓練集減少樣本個數,訓練和驗證誤差相差不大。
文章評價
目前作者論文僅僅在 ILSVRC 2012 驗證分類的錯誤率,其他數據集比如目標檢測,語義分割是否有效?有研究能力的同志們趕緊往前沖,這又是一個坑。
論文給出一種數據增強方式,也用實驗驗證確實有效,但是為什麼有效?
個人認為相當於隨機引入雜訊,在訓練樣本中人為引入誤導性的訓練樣本。 如果不是 IBM 的論文,我估計也不會認真研究一番的。在論文滿天飛的年代,名企名校名人還是佔優勢的。
本文由 AI 學術社區 PaperWeekly 精選推薦,社區目前已覆蓋自然語言處理、計算機視覺、人工智慧、機器學習、數據挖掘和信息檢索等研究方向,點擊即刻加入社區!
戳我領取新年禮物
投票參與 & 讀者福利
參與方式
1. 點擊參與投票,選出你心中的2017年度最佳論文Top 10
2. 文末留言你喜歡某篇論文的原因
3. 分享本文到朋友圈並截圖發至後台
截止時間
2018年1月24日0點0分
福利清單
PaperWeekly定製手機殼 x 3份
PaperWeekly定製筆記本 x 5份
PaperWeekly定製行李牌 x 10份
△ 我們長這樣哦~
# 高 能 提 醒 #
1. 為了方便大家在投票過程中查看論文詳情,請使用手機瀏覽器打開表單。
2. 本次評選包含自然語言處理和計算機視覺兩大方向,請在你所選擇的參與方向下勾選3-10篇論文。
3. 獲獎名單將於1月25日公布,其中5位由小編根據文末留言選取,其他13位採用隨機抽取,禮物隨機發放。
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平台。如果你研究或從事 AI 領域,歡迎在公眾號後台點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
微信公眾號:PaperWeekly
新浪微博:@PaperWeekly
推薦閱讀: