[CVPR2018筆記]Detail-Preserving Pooling in Deep Networks
05-14
CVPR 2018 ORAL
顧名思義,提出了保留detail的池化方法。
max/avg pooling一個只選取最大而忽略與周圍像素的關聯性,一個重視關聯性卻又直接抹平,並且在實際梯度計算中也有一些drawback,所以該文提出了這個新方法,一句話概括,就是在池化過程中學了一個動態的weight。
notation:在此,我們以 I& 代替文章中出現的 ,ID代指
Detail-Preserving Image Downscaling
作者總結:DPID計算的是weighted average of the input,周圍的像素中,越近或者difference越大的值能夠給最終的output更高的contribution
以上這一部分是一個鋪墊。
Detail-Preserving Pooling
作者這部分就是將上一部分提出的downscale思想轉化成文章的DPP(如title)
簡言之,就是將上部分中的L2 NORM替換成一個可學習的 generic scalar reward function。
首先給出weight的表示:
這裡用了constrain來保證兩個參數為非負。
這裡給出了兩種reward function:
可以看到,相對而言,後者更傾向與給比中心像素高的像素更高權重,前者則是給差距大的更高權重。
後面,作者又補充了 的生成:
推薦閱讀:
TAG:CVPR | 卷積神經網路CNN | 深度學習DeepLearning |