Noise2Noise:圖像降噪,無需乾淨樣本,原因非常簡單
08-12
Noise2Noise:圖像降噪,無需乾淨樣本,原因非常簡單
推薦閱讀:
來自專欄技術備忘錄83 人贊了文章
最近nVidia幾個月前的一篇文章突然火了:
https://arxiv.org/pdf/1803.04189.pdf這個文章寫了很長,其實它說的事情非常簡單。
本來我們做圖像降噪,需要輸入的噪音圖像 x,和 「乾淨樣本」 y。
例如,x 是路徑跟蹤渲染用少數光束渲染的圖片,y 是長期渲染後的圖片。那麼如果用 y 作為訓練目標,生成 y 是個非常費時費力的過程。
但其實你如果仔細想想,可以用另一次快速渲染生成的另一個噪音圖像(它相當於 y + 另一個不同的噪音)作為訓練目標(所以叫Noise2Noise)。只要訓練樣本夠多,最終也相當於用 y 作為訓練目標。原因是簡單的統計學原理。
下面是效果,可見用另一個噪音圖像作為訓練目標 (b),效果和用乾淨圖像作為訓練目標 (c) 最終的效果幾乎一樣好。
而且訓練過程和速度也幾乎一樣,例如:
嚴格說來,這個需要兩次獨立的觀測,還是沒有 Deep Image Prior 神奇,當然它的運行速度比 Deep Image Prior 快多了。
推薦閱讀:
※[CVPR2018筆記]Disentangled Person Image Generation
※K-means,Mean-shift,Cam-shift串燒
※KIT: Automotive Vision汽車視覺學習筆記(1)Introduction
※一次有趣的面試(上)
※SLAM 學習視頻合集
TAG:深度學習DeepLearning | 計算機視覺 | 機器學習 |