針對ssd,faster-crnn改了anchor的尺寸,是否可以繼續訓練?why

針對ssd,faster-crnn改了anchor的尺寸,是否可以繼續訓練?why

由於業務需求,要把anchor的尺度做修改.

但是以前已經很久訓練效果也不錯模型是否可以接著fineturn呢?

頓時還是被問的有些暈

才發現忙於業務 把基本的忘記了

這個問題其實就是對rpn層的理解問題

(就算是ssd,一樣的道理)

首先來梳理下rpn層的思路

1.提取feature後的 feature map輸入rpn層

2.rpn層會在feature map每一個像素點"臆想"出來N個框(這裡用"臆想"代替"生成",主要是強調這個框壓根沒有出現過在網路結構中, 他的作用只是出現在loss公式中)

3.3*3conv ->分類,回歸

回歸什麼?

回歸之前的輸出是什麼?

這裡輸出的並不是一個boundingbox的左上右下坐標,而是一個修改量,也就是下面公式d_{x} d_{y}d_{w}d_{h}

重點是公式

P就是的anchor(高、寬、中心),而裡面的d_{x} d_{y}d_{w}d_{h}是rpn_bbox層輸出的四個值,G就是修改之後的高、寬、中心.

所以可以看出 P 只是在計算loss的時候用到了. 並不會改變網路層的結構.

說的比較粗,請大神們狠狠拍磚 糾正錯誤理解的地方


推薦閱讀:

TAG:固態硬碟 | 深度學習DeepLearning |