【深度學習系列】CNN模型的可視化
前面幾篇文章講到了卷積神經網路CNN,但是對於它在每一層提取到的特徵以及訓練的過程可能還是不太明白,所以這節主要通過模型的可視化來神經網路在每一層中是如何訓練的。我們知道,神經網路本身包含了一系列特徵提取器,理想的feature map應該是稀疏的以及包含典型的局部信息。通過模型可視化能有一些直觀的認識並幫助我們調試模型,比如:feature map與原圖很接近,說明它沒有學到什麼特徵;或者它幾乎是一個純色的圖,說明它太過稀疏,可能是我們feature map數太多了(feature_map數太多也反映了卷積核太小)。可視化有很多種,比如:feature map可視化、權重可視化等等,我以feature map可視化為例。
模型可視化
因為我沒有搜到用paddlepaddle在imagenet 1000分類的數據集上預訓練好的googLeNet inception v3,所以用了keras做實驗,以下圖作為輸入:
- 輸入圖片
- 北汽紳寶D50:
- feature map可視化
取網路的前15層,每層取前3個feature map。
北汽紳寶D50 feature map:
從左往右看,可以看到整個特徵提取的過程,有的分離背景、有的提取輪廓,有的提取色差,但也能發現10、11層中間兩個feature map是純色的,可能這一層feature map數有點多了,另外北汽紳寶D50的光暈對feature map中光暈的影響也能比較明顯看到。
- Hypercolumns 通常我們把神經網路最後一個fc全連接層作為整個圖片的特徵表示,但是這一表示可能過於粗糙(從上面的feature map可視化也能看出來),沒法精確描述局部空間上的特徵,而網路的第一層空間特徵又太過精確,缺乏語義信息(比如後面的色差、輪廓等),於是論文《Hypercolumns for Object Segmentation and Fine-grained Localization》提出一種新的特徵表示方法:Hypercolumns——將一個像素的 hypercolumn 定義為所有 cnn 單元對應該像素位置的激活輸出值組成的向量),比較好的tradeoff了前面兩個問題,直觀地看如圖:
把北汽紳寶D50 第1、4、7層的feature map以及第1, 4, 7, 10, 11, 14, 17層的feature map分別做平均,可視化如下:
代碼實踐
# -*- coding: utf-8 -*-from keras.applications import InceptionV3from keras.applications.inception_v3 import preprocess_inputfrom keras.preprocessing import imagefrom keras.models import Modelfrom keras.applications.imagenet_utils import decode_predictionsimport numpy as npimport cv2from cv2 import *import matplotlib.pyplot as pltimport scipy as spfrom scipy.misc import toimagedef test_opencv(): # 載入攝像頭 cam = VideoCapture(0) # 0 -> 攝像頭序號,如果有兩個三個四個攝像頭,要調用哪一個數字往上加嘛 # 抓拍 5 張小圖片 for x in range(0, 5): s, img = cam.read() if s: imwrite("o-" + str(x) + ".jpg", img)def load_original(img_path): # 把原始圖片壓縮為 299*299大小 im_original = cv2.resize(cv2.imread(img_path), (299, 299)) im_converted = cv2.cvtColor(im_original, cv2.COLOR_BGR2RGB) plt.figure(0) plt.subplot(211) plt.imshow(im_converted) return im_originaldef load_fine_tune_googlenet_v3(img): # 載入fine-tuning googlenet v3模型,並做預測 model = InceptionV3(include_top=True, weights=imagenet) model.summary() x = image.img_to_array(img) x = np.expand_dims(x, axis=0) x = preprocess_input(x) preds = model.predict(x) print(Predicted:, decode_predictions(preds)) plt.subplot(212) plt.plot(preds.ravel()) plt.show() return model, xdef extract_features(ins, layer_id, filters, layer_num): 提取指定模型指定層指定數目的feature map並輸出到一幅圖上. :param ins: 模型實例 :param layer_id: 提取指定層特徵 :param filters: 每層提取的feature map數 :param layer_num: 一共提取多少層feature map :return: None if len(ins) != 2: print(parameter error:(model, instance)) return None model = ins[0] x = ins[1] if type(layer_id) == type(1): model_extractfeatures = Model(input=model.input, output=model.get_layer(index=layer_id).output) else: model_extractfeatures = Model(input=model.input, output=model.get_layer(name=layer_id).output) fc2_features = model_extractfeatures.predict(x) if filters > len(fc2_features[0][0][0]): print(layer number error., len(fc2_features[0][0][0]),,,filters) return None for i in range(filters): plt.subplots_adjust(left=0, right=1, bottom=0, top=1) plt.subplot(filters, layer_num, layer_id + 1 + i * layer_num) plt.axis("off") if i < len(fc2_features[0][0][0]): plt.imshow(fc2_features[0, :, :, i])# 層數、模型、卷積核數def extract_features_batch(layer_num, model, filters): 批量提取特徵 :param layer_num: 層數 :param model: 模型 :param filters: feature map數 :return: None plt.figure(figsize=(filters, layer_num)) plt.subplot(filters, layer_num, 1) for i in range(layer_num): extract_features(model, i, filters, layer_num) plt.savefig(sample.jpg) plt.show()def extract_features_with_layers(layers_extract): 提取hypercolumn並可視化. :param layers_extract: 指定層列表 :return: None hc = extract_hypercolumn(x[0], layers_extract, x[1]) ave = np.average(hc.transpose(1, 2, 0), axis=2) plt.imshow(ave) plt.show()def extract_hypercolumn(model, layer_indexes, instance): 提取指定模型指定層的hypercolumn向量 :param model: 模型 :param layer_indexes: 層id :param instance: 模型 :return: feature_maps = [] for i in layer_indexes: feature_maps.append(Model(input=model.input, output=model.get_layer(index=i).output).predict(instance)) hypercolumns = [] for convmap in feature_maps: for i in convmap[0][0][0]: upscaled = sp.misc.imresize(convmap[0, :, :, i], size=(299, 299), mode="F", interp=bilinear) hypercolumns.append(upscaled) return np.asarray(hypercolumns)if __name__ == __main__: img_path = ~/auto1.jpg img = load_original(img_path) x = load_fine_tune_googlenet_v3(img) extract_features_batch(15, x, 3) extract_features_with_layers([1, 4, 7]) extract_features_with_layers([1, 4, 7, 10, 11, 14, 17])
總結
還有一些網站做的關於CNN的可視化做的非常不錯,譬如這個網站:http://shixialiu.com/publications/cnnvis/demo/,大家可以在訓練的時候採取不同的卷積核尺寸和個數對照來看訓練的中間過程。最近PaddlePaddle也開源了可視化工具VisaulDL,下篇文章我們講講paddlepaddle的visualDL和tesorflow的tensorboard。
作者:胡曉曼 Python愛好者社區專欄作者,請勿轉載,謝謝。
博客專欄:CharlotteDataMining的博客專欄配套視頻教程:三個月教你從零入門深度學習!| 深度學習精華實踐課程公眾號:Python愛好者社區(微信ID:python_shequ),關注,查看更多連載內容。
推薦閱讀:
※【R圖秀】情人節快樂!
※AI演算法眼中的世界是什麼樣子?這些圖像或許能幫你更好地理解
※詩豪:劉禹錫寫詩用字分析(唐代詩人寫詩用字分析之三)
※教育政策是否應該向貧困學生傾斜?
※星巴克點亮全球:看看哪些城市星巴克最多
TAG:深度學習DeepLearning | 卷積神經網路CNN | 可視化 |