Noise2Noise:圖像降噪,無需乾淨樣本,原因非常簡單

Noise2Noise:圖像降噪,無需乾淨樣本,原因非常簡單

來自專欄技術備忘錄83 人贊了文章

最近nVidia幾個月前的一篇文章突然火了:

https://arxiv.org/pdf/1803.04189.pdf?

arxiv.org

這個文章寫了很長,其實它說的事情非常簡單。

本來我們做圖像降噪,需要輸入的噪音圖像 x,和 「乾淨樣本」 y。

例如,x 是路徑跟蹤渲染用少數光束渲染的圖片,y 是長期渲染後的圖片。那麼如果用 y 作為訓練目標,生成 y 是個非常費時費力的過程。

但其實你如果仔細想想,可以用另一次快速渲染生成的另一個噪音圖像(它相當於 y + 另一個不同的噪音)作為訓練目標(所以叫Noise2Noise)。只要訓練樣本夠多,最終也相當於用 y 作為訓練目標。原因是簡單的統計學原理。

下面是效果,可見用另一個噪音圖像作為訓練目標 (b),效果和用乾淨圖像作為訓練目標 (c) 最終的效果幾乎一樣好。

而且訓練過程和速度也幾乎一樣,例如:

嚴格說來,這個需要兩次獨立的觀測,還是沒有 Deep Image Prior 神奇,當然它的運行速度比 Deep Image Prior 快多了。


推薦閱讀:

[CVPR2018筆記]Disentangled Person Image Generation
K-means,Mean-shift,Cam-shift串燒
KIT: Automotive Vision汽車視覺學習筆記(1)Introduction
一次有趣的面試(上)
SLAM 學習視頻合集

TAG:深度學習DeepLearning | 計算機視覺 | 機器學習 |