同一個卷積層中的 Feature Map有什麼區別?

在深度學習中用卷積神經網路進行特徵提取,一般都會設計多個Feature Map,請問它們之間的區別與聯繫是什麼?設計多少個Feature Map是通過什麼來判斷的?


多個Feature Map的作用是什麼?說一下個人理解,歡迎指正。
===================
在卷積神經網路中,我們希望用一個網路模擬視覺通路的特性,分層的概念是自底向上構造簡單到複雜的神經元。樓主關心的是同一層,那就說說同一層。
我們希望構造一組基,這組基能夠形成對於一個事物完備的描述,例如描述一個人時我們通過描述身高/體重/相貌等,在卷積網中也是如此。在同一層,我們希望得到對於一張圖片多種角度的描述,具體來講就是用多種不同的卷積核對圖像進行卷,得到不同核(這裡的核可以理解為描述)上的響應,作為圖像的特徵。他們的聯繫在於形成圖像在同一層次不同基上的描述。下層的核主要是一些簡單的邊緣檢測器(也可以理解為生理學上的simple cell)。在這裡給出部分第一層的結果,盜圖來自http://nbviewer.ipython.org/github/BVLC/caffe/blob/master/examples/filter_visualization.ipynb

上層的核主要是一些簡單核的疊加(或者用其他詞更貼切),可以理解為complex cell。多少個Feature Map?真的不好說,簡單問題少,複雜問題多,但是自底向上一般是核的數量在逐漸變多(當然也有例外,如Alexnet),主要靠經驗。


嘗試結合神經科學對第一個問題簡單說說自己的理解,輕黑。
在CNN的設定里,Feature Map是卷積核卷出來的,而不同的特徵提取(核)會提取不同的feature,模型想要達成的目的是解一個最優化,來找到能解釋現象的最佳的一組卷積核。例如某個核如果形似gabor運算元,就會提取出邊緣信息的feature,但這個特徵too simple,很可能不是模型需要的特徵。這與人腦神經網路(暫且這麼叫吧)的功能是很相似的,比如gabor運算元模擬了V1具有方向選擇性的神經元,這些神經元被稱為simple cell,只能對orientation做出響應,人腦依靠這些神經元檢測出圖像的邊緣信息。
但simple cell的功能也僅此而已,人腦若要完成一些更高級的功能(visual attention, object recognition),就需要更複雜的神經元,例如complex cell和hypercomplex cell,它們能對信號做一些更複雜的變換,而恰恰神經科學的證據表明,它們「很可能」是由V1的多個simple cell的輸出信號組合而成的,比如V4的一些cell可能對angle做出響應等;考慮一個object recognition的任務,object自身具有不同的特徵,不同的複雜的cell編碼了其不同的特徵,組合起來表達這樣一種object。CNN的設定中的feature map也就對應了各層cell的信號輸出。

參考:關於simple cell, complex cell, hypercomplex cell對不同特徵的響應
Perception Lecture Notes: LGN and V1


一本字典里有N多個字,一本詞典里有N多個詞,一本句典里……有句典嗎……
在字那一層,它就是一遍一遍地看,有這個字嗎有那個字嗎,在哪個位置。再上一層就再一遍一遍地看,有這個詞嗎有那個詞嗎,在哪裡。

換成圖像,字典有如邊緣特徵等等底層特徵,在底層很難表達,直接用上面的比較概念的的層看吧:輪子特徵去卷一遍,出來的圖就是有輪子的地方會被激活(顯示出來就是灰度高些咯),車牌特徵、車窗特徵等等亦如此。

說得這麼通俗,老婦都能理解了吧


1.合作關係,具體不知道。會有很多事後諸葛亮的解釋,然而並沒有什麼卵用。
2.試


beginner 獻出拙見,我目前的理解是這樣的:

feature map 由卷積核(Fliter) 和輸入做卷積運算得到

一個 Fliter 對應卷積後得到一個 feature map

不同的Filter (不同的 weight, bias) ,卷積以後得到不同的 feature map,提取不同的特徵(得到對應 specialized neuro)


舉例:

同一層:

Fliter1 的w1,b1 運算後提取的是 形狀邊緣的特徵: feature map1

Fliter2 的w2,b2 運算後提取的是 顏色深淺的特徵: feature map2


下一層:

Fliter3 的w3,b3 運算後提取的是 直線形狀的特徵: feature map3

Fliter4 的w4,b4 運算後提取的是 弧線形狀的特徵: feature map4

Fliter5 的w5,b5 運算後提取的是 紅色深淺的特徵: feature map5

Fliter6 的w6,b6 運算後提取的是 綠色深淺的特徵: feature map6


一張圖(矩陣)經過卷積核(kernal)卷積運算之後得到的一張新的圖(矩陣),就是feature map。

你用各種情況下的卷積核去乘以原圖,會得到各種各樣的feature map。你可以理解為你從多個角度去分析圖片。

用卷積核乘完以後,可能得到的圖失去了原來的模樣,但是對計算機來說,它更全面地「挖掘分析」了這張圖,對於進一步的分類啊什麼的,是有價值的。。。


同一卷積層,會有多個卷積核對一副圖做卷積,區別就是,不同的卷積核有不同的結果。一千個讀者有一千個哈姆雷特,一千個卷積核有一千種尺度描述


推薦閱讀:

如何理解卷積,另外如何理解圖像處理中的卷積?
哪裡可以找到比較全的關於processing代碼的解釋?
如何製作有噪點的背景畫面?
水下攝影如何調出通透的感覺?
使用電腦進行圖像處理(視頻、照片、繪圖、設計)工作,顯示器色彩空間為何不能統一?怎麼解決?

TAG:圖像處理 | 機器學習 | 神經網路 | 深度學習DeepLearning |