CVPR 2018 Person Re-ID相關論文
CVPR2018的文章估計不少,先搜集了幾篇,先睹為快,保持更新~
1. Pose Transferrable Person Re-Identification
2. Deep Spatial Feature Reconstruction for Partial Person Re-identification: Freestyle Approach 【paper】
3. Adversarially Occluded Samples For Improving Generalization of Person Re-identification Models 【paper】
4. Harmonious Attention Network for Person Re-Identification【paper】
5. Dual Attention Matching Network for Context-Aware Feature Sequence based Person Re-Identification 【paper】
6. Transferable Joint Attribute-Identity Deep Learning for Unsupervised Person Re-Identification 【paper】
7. Camera Style Adaptation for Person Re-identfication【paper】【github】
8. Image-Image Domain Adaptation with Preserved Self-Similarity and Domain-Dissimilarity for Person Re-identification【paper】
9. Person Transfer GAN to Bridge Domain Gap for Person Re-Identification 【paper】
DataSet【Baidu】(password: tkdr)【Google】
10. Unsupervised Cross-dataset Person Re-identification by Transfer Learning of Spatial-Temporal Patterns【paper】【github】
11. Mask-guided Contrastive Attention Model for Person Re-Identification
>> 簡要介紹
1. Pose Transferrable Person Re-Identification
來自 上海交大的一篇文章
演算法要點:
一種Data Augment方法,通過引入Pose樣本庫,藉助GAN進行多姿態的標籤樣本生成,用於輔助訓練(可以用在其他領域)。
提出了一種基於姿態遷移的Re-ID框架,包括3個Key Point:
1) 通過將MARS數據集進行姿態轉換,得到姿態豐富的訓練樣本,並加入到目標數據集進行訓練;
2) 在傳統的GAN的Discriminator(辨別器)的基礎上,提出了一個引導子網路,生成更滿足Re-ID Loss的樣本;
網路描述為:Generator-Guider-Discriminator
3) 提出一種可選的優化過程來訓練
所提出的網路,在沒有可以設計re-id模型的情況下,效果超過了目前的state-of-the-art方法。
GAN在行人樣本生成上已有成功的應用(鄭良組),但是有幾個問題:
1) 生成樣本不具有足夠的辨識信息,對於模型訓練幫助不大;
GAN只試圖產品視覺上好看的圖片。
2) 複雜形狀的生成,產生嚴重的扭曲,有些背離真實;
? 輔助標籤樣本生成
Appearance + pose -> Transfer–> Augment Samples
加入Guider,通過ReID的loss來約束生成的Samples。這個想法雖然簡單,但是有效。
數據訓練:
通過將生成的數據加入到訓練集中,進行ReID模型訓練,這樣對於每個instance,都存在更多的姿態(表達能力更強),當然這樣做的缺點在於通過GAN得到的模型本身不能正確的表示目標,如果過多使用,可能會導致準確度下降,為了避免這個問題,採用軟標籤(soft labeling)的形式來標記生成對象,即按照一定的概率進行Label的分類,不具體展開。
實驗效果:
可以看到,在多個數據集上都有提升,是個不錯的思路!
下一步的提升方向可以考慮更好的樣本生成方法,這個應該是沒有止境的。
2. Deep Spatial Feature Reconstruction for Partial Person Re-identification: Freestyle Approach
來自自動化所 孫哲南 組
主要針對 partial re-id問題,有遮擋的情況下的重識別問題。
演算法通過CNN網路進行 圖像空域重建,得到與輸入圖像尺寸一致的空域特徵圖,不需要特徵對齊過程,演算法借鑒字典學習中重建誤差來計算不同的空域特徵圖的相似度。
與Triplet類似,採用End-to-end的訓練方式,提高來自同一個id的樣本相似度,降低不同id圖像相似度。
演算法在 Partial REID,Partial iLIDS 上的曲線相當不錯(下圖紅色)。
3. Adversarially Occluded Samples For Improving Generalization of Person Re-identification Models
來自自動化所 黃凱奇 組
演算法提出採用對抗網路(GAN)來生成遮擋樣本,由於生成的樣本能夠屏蔽掉原來的一些特徵,從而導致網路去學習另一部分特徵,由此可以挖掘出一些潛在Feature。
借鑒了 Hard Mining 的思想,思路比較簡單,感興趣的可以復現一下。
4. Harmonious Attention Network for Person Re-Identification
來自倫敦大學的工作
文章提出一種輕量級框架: jointly deep learning attention selection
主要貢獻包括:
1)提出了一種新的聯合學習多粒度 Attention Selection 和特徵表示的方法,來優化re-id問題;
據作者了解,這是採用聯合深度學習multiple complementary attention來解決re-id問題的第一次嘗試。
註:可以理解為多個attention model
2)提出了一種 Harmonious Attention CNN(HA-CNN);
在任意的person boxes內,可以同步學習hard region-level 和 soft pixel-level attention。同時生成re-id的特徵表示,這種表示能夠最大化 attension選擇和特徵判別之間的 相關互補信息。
這是通過設計的輕量級的HA 模塊來實現的,通過multi-task 和 end-to-end學習,能夠有效的學習共享re-id特徵表示的不同的attension 類型。
3)提出了一個cross-attension交叉學習機制,進一步提高不同attention selection 和 re-id判別約束的特徵表示之間的兼容性。
HA-CNN網路示意:
在常用數據集上有明顯提升:
HA(hard-region)和SA(soft pixel) 在不同Level下的可視化效果:
7. Camera Style Adaptation for Person Re-identfication
來自廈門大學 鍾准,鄭良大神參與指導
通過 CycleGAN 完成圖像 style 遷移,這篇文章發布的時間比較長了,可能很多人都看過,不再詳述。
9. Person Transfer GAN to Bridge Domain Gap for Person Re-Identification
北京大學團隊
通過對抗網路實現不同 數據集之間的圖片遷移,演算法和 Camera Style 差異性不太大,大概了解一下idea就可以了,比較突出的貢獻是提出了一個大的數據集 MSMT17。
> 數據採集時長約為180小時
> 總共有15個相機,其中12個室外相機,3個室內相機
> 行人框由Faster RCNN機標完成
> 最後總共有4101個行人的126441個bounding boxes
10. Unsupervised Cross-dataset Person Re-identification by Transfer Learning of Spatial-Temporal Patterns
無監督學習,取得了接近監督學習的效果,
可以參考原作者 @夢裡風林 【zhihu】
11. Mask-guided Contrastive Attention Model for Person Re-Identification
來自中科院自動化所團隊
演算法基於目標分割的方式,通過去除背景達到比較好的效果,思路並不太新穎,有興趣的童鞋可以看一下。
推薦閱讀:
TAG:行人重識別 |