標籤:

CNN特徵提取筆記

級聯分類器(cascade of classifiers)

從一堆弱分類器裡面,挑出一個最符合要求的弱分類器,用著這個弱分類器把不想要的數據剔除,保留想要的數據;然後再從剩下的弱分類器里,再挑出一個最符合要求的弱分類器,對上一級保留的數據,把不想要的數據剔除,保留想要的數據。最後,通過不斷串聯幾個弱分類器,進過數據層層篩選,最後得到我們想要的數據。

CNN主要由3種模塊構成

  • 卷積層
  • 採樣層
  • 全連接層

CNN特徵提取

  • 通過第一個卷積層提取最初特徵,輸出特徵圖(feature map)
  • 通過第一個採樣層對最初的特徵圖(feature map )進行特徵選擇,去除多餘特徵,重構新的特徵圖
  • 第二個卷積層是對上一層的採樣層的輸出特徵圖(feature map)進行二次特徵提取
  • 第二個採樣層也對上層輸出進行二次特徵選擇
  • 全連接層就是根據得到的特徵進行分類

卷積層負責提取特徵,採樣層是特徵選擇,全連接層負責分類


RGB圖像

卷積核放在神經網路里,就代表對應的權重。卷積核和圖像進行點乘,就代表卷積核里權重單獨對應相應位置的Pixel進行作用。

在此雖為卷積,但是並不是對應位置的意義對應的點乘,不是真正意義上的卷積,是把所有的點乘結果加起來,就是把所有的效果作用加起來。

RGB有三個通道,對應著三個卷積核,裡面的數字相當於權重,卷積核裡面的權值內容會在後面的反向傳播演算法中講到。舉例說明:

輸出:

卷積順序:就是從左到右,每隔x列Pixel,向右移動一次卷積核進行卷積(x可以自己定義),即stride。

補白:因為添了一圈0,實際上什麼信息也沒有添,但是

同樣是stride x=1 的情況下,補0比原來沒有添0 的情況下進行卷積,從左到右,從上到下都多賺了2次卷積,這樣第一層卷積層輸出的特徵圖(feature map)仍然為5x5,和輸入圖片的大小一致

而沒有添0的第一層卷積層輸出特徵圖大小為3x3

這樣有什麼好處呢

(1)我們獲得的更多更細緻的特徵信息,上面那個例子我們就可以獲得更多的圖像邊緣信息

(2)我們可以控制卷積層輸出的特徵圖的size,從而可以達到控制網路結構的作用,還是以上面的例子,如果沒有做zero-padding以及第二層卷積層的卷積核仍然是3x3, 那麼第二層卷積層輸出的特徵圖就是1x1,CNN的特徵提取就這麼結束了。

同樣的情況下加了zero-padding的第二層卷積層輸出特徵圖仍然為5x5,這樣我們可以再增加一層卷積層提取更深層次的特徵


推薦閱讀:

TAG:特徵提取 |