針對ssd,faster-crnn改了anchor的尺寸,是否可以繼續訓練?why
05-30
針對ssd,faster-crnn改了anchor的尺寸,是否可以繼續訓練?why
推薦閱讀:
由於業務需求,要把anchor的尺度做修改.
但是以前已經很久訓練效果也不錯模型是否可以接著fineturn呢?
頓時還是被問的有些暈
才發現忙於業務 把基本的忘記了
這個問題其實就是對rpn層的理解問題
(就算是ssd,一樣的道理)
首先來梳理下rpn層的思路
1.提取feature後的 feature map輸入rpn層
2.rpn層會在feature map每一個像素點"臆想"出來N個框(這裡用"臆想"代替"生成",主要是強調這個框壓根沒有出現過在網路結構中, 他的作用只是出現在loss公式中)
3.3*3conv ->分類,回歸
回歸什麼?
回歸之前的輸出是什麼?
這裡輸出的並不是一個boundingbox的左上右下坐標,而是一個修改量,也就是下面公式的
重點是公式
就是的anchor(高、寬、中心),而裡面的是rpn_bbox層輸出的四個值,就是修改之後的高、寬、中心.
所以可以看出 P 只是在計算loss的時候用到了. 並不會改變網路層的結構.
說的比較粗,請大神們狠狠拍磚 糾正錯誤理解的地方
推薦閱讀:
TAG:固態硬碟 | 深度學習DeepLearning |