[CVPR2018筆記]Detail-Preserving Pooling in Deep Networks

CVPR 2018 ORAL

顧名思義,提出了保留detail的池化方法。

max/avg pooling一個只選取最大而忽略與周圍像素的關聯性,一個重視關聯性卻又直接抹平,並且在實際梯度計算中也有一些drawback,所以該文提出了這個新方法,一句話概括,就是在池化過程中學了一個動態的weight。

notation:在此,我們以 I& 代替文章中出現的 	ilde{I} ,ID代指 I_{D}

Detail-Preserving Image Downscaling

I是原圖,O是output,[]表示取對應坐標像素值

如圖所言,ID是用近似高斯分布的filtersmooth後的圖像

作者總結:DPID計算的是weighted average of the input,周圍的像素中,越近或者difference越大的值能夠給最終的output更高的contribution

以上這一部分是一個鋪墊。

Detail-Preserving Pooling

作者這部分就是將上一部分提出的downscale思想轉化成文章的DPP(如title)

簡言之,就是將上部分中的L2 NORM替換成一個可學習的 generic scalar reward function。

首先給出weight的表示:

α and λ 就是我們要學習的參數

這裡用了constrain來保證兩個參數為非負。

這裡給出了兩種reward function:

這裡為了簡潔,將λ省略掉了

可以看到,相對而言,後者更傾向與給比中心像素高的像素更高權重,前者則是給差距大的更高權重。

後面,作者又補充了 	ilde{I} 的生成:

推薦閱讀:

TAG:CVPR | 卷積神經網路CNN | 深度學習DeepLearning |