Perceive Where to Focus: Learning Visibility-aware Part-level Features for Partial Person Re-identification
局部可見感知模型——VPM
論文摘要
論文中考慮了行人重新識別(re-ID) 的一個現實問題,即局部行人重識別問題。在局部行人重識別場景下,需要探索資料庫圖像中包含整體人物的比例大小。如果直接將局部行人圖像與整體行人圖像進行比較,則極端空間錯位問題將顯著地損害特徵表徵學習的判別能力。針對這個問題,本文提出了一個局部可見感知模型(VPM),通過自監督學習感知可見區域內的特徵,來解決局部行人重識別問題。該模型利用可見感知的特性,能夠提取區域特徵並比較兩張圖像的共享區域(共享區域在兩張圖像上都是可見區域),從而局部行人重識別問題上取得更好的表現。總的來說,VPM 有兩大優勢:一方面,與學習全局特徵的模型相比,VPM 模型通過學習圖像區域特徵,能夠更好地提取一些細粒度特徵信息。另一方面,利用可見感知特徵,VPM 能夠估計兩個圖像之間的共享區域,從而抑制空間錯位問題。通過大量的實驗結果驗證,VPM 模型能夠顯著地改善特徵表徵的學習能力,並且在局部和整體行人重識別場景中,均可獲得與當前最先進方法相當的性能。
提出問題
行人再識別需要已經可以刷到很高的精度,但是現實中存在的問題依舊很多,比如遮擋、行人衣物的變換等。現在行人局部問題成為了時下比較流行的論文趨勢。本文提出了一個VPM自適應感知器,可以摒棄遮擋部分,只提取共同部分的特徵進行比較。如下圖所示,提取被遮擋的部分不僅在最終的特徵表示中起不到良好的效果,還會引入無用信息對結果進行幹擾。
解決問題
(非常巧妙,但是有些細節問題沒有看懂,歡迎留言)
本文基於以上想法,提出一個VPM自適應網路結構,如下圖所示,