天天看點

行人檢測論文筆記彙總(含代碼位址)

論文标題:Bi-box Regression for Pedestrian Detection and Occlusion Estimation

論文下載下傳位址:

http://openaccess.thecvf.com/content_ECCV_2018/papers/CHUNLUAN_ZHOU_Bi-box_Regression_for_ECCV_2018_paper.pdf

代碼下載下傳位址: https://github.com/rainofmine/Bi-box_Regression

論文簡介:與通用目标檢測相比,遮擋情況在行人檢測中更為普遍,為此也是行人檢測領域最廣為關注的問題之一,對于遮擋情況下的行人檢測,主要有兩種思路:一是對目标候選框分成不同part逐一處理、差別對待再加以特征融合;二是從loss的角度使得目标候選框對互相遮擋的情況更具判别性,目前主流的行人檢測算法大多基于兩階段的檢測器架構,本文也不例外,但另辟蹊徑,通過讓網絡同時輸出目标候選框的可見部分,指導網絡在學習的過程中對遮擋情況下的行人目标更具有判别力,實驗表明該思路對嚴重遮擋情況下的行人檢測十分有效。

論文貢獻:本文方法遵循Fast R-CNN檢測架構。為了處理遮擋問題,本文提出利用一個網絡同時進行行人檢測和遮擋估計,具體而言就是讓網絡并行兩個分支,分别輸出兩個bounding box,一個是完整的行人框,另一個時行人的可見部分。如下圖所示,前者為紅色框後者為藍色框,對于沒有行人目标的候選框而言,則可見部分分支的輸出要盡量逼近候選框的中心。整個方法基于Fast R-CNN檢測架構,首先産生目标候選框,将圖像和目标候選框輸入卷積神經網絡,然後通過RoI pooling提取每個目标候選框的特征,對這些特征進行分類和回歸,分别得到兩個box。

行人檢測論文筆記彙總(含代碼位址)

本文的貢獻包括三個方面:(1)提出了一種bi-box regression方法,通過學習由兩個分支組成的深層CNN(一個用于全身估計,另一個用于可見部分)來實作行人檢測和遮擋的同時估計。(2)提出了一種訓練政策,以改善兩個分支之間的互補性,以便可以融合其輸出以提高行人檢測性能;(3)預測行人框的可見部分是可行的,并可以帶來整體行人檢測的性能提升;訓練時,結合遮擋程度來定義高品質的正樣本,可以為訓練帶來幫助,不失為一種非常經濟有效的提升性能的trick。

論文名額: 本文方法在Caltech、CityPerson資料集上使用False Positive Per Image(FPPI)作為評估名額,Reasonable、Partial、Heavy Occlusion狀态下FPPI名額分别是最好的7.4%、13.3%、44.4%,在CityPerson資料集上的Reasonable、Heavy、All狀态下FPPI名額分别是的11.24%、44.15%,43.41%

論文标題:High-level Semantic Feature Detection: A New Perspective for Pedestrian Detection

論文下載下傳位址:https://arxiv.org/abs/1904.02948

代碼下載下傳位址: https://github.com/liuwei16/CSP

https://github.com/lw396285v/CSP-pedestrian-detection-in-pytorch

論文簡介:目标檢測通常需要傳統的滑動視窗分類器或現代深度學習方法中基于錨框的預測。但是,這些方法中的任何一種都需要在boxes中進行繁瑣的配置。在本文中,作者提供了一個新的視角,即将檢測對象作為進階語義特征檢測任務來激發。像邊緣,拐角,斑點和其他特征檢測器一樣,建議的檢測器在整個圖像上掃描特征點,是以自然适合進行卷積。但是,與這些傳統的低級功能不同,建議的檢測器需要更進階别的抽象,也就是說,作者正在尋找存在對象的中心點,并且現代深度模型已經能夠實作這種進階語義抽象。此外,像斑點檢測一樣,作者還可以預測中心點的尺度,這也是一個簡單的卷積。是以,在本文中,通過卷積将行人和面部檢測簡化為直接的中心和規模預測任務。這樣,所提出的方法享box-free設定。盡管結構簡單,但它在包括行人檢測和人臉檢測在内的幾個具有挑戰性的基準上都具有競争優勢。此外,執行了跨資料集評估,證明了所提出方法的出色泛化能力。

論文貢獻:本文提出了一個新的解決行人檢測的視角,将目标檢測了解為進階語言特征檢測任務,像邊緣,拐角,斑點和其他特征檢測器一樣,建議的檢測器在整個圖像上掃描特征點,是以自然适合進行卷積。但是,與這些傳統的低級特征檢測器不同,建議的檢測器用于更進階别的抽象,也就是說,正在尋找存在對象的中心點。此外,類似于斑點檢測,還預測了中心點的尺度。然而,考慮到它的強大功能,但是不像傳統的斑點檢測那樣處理圖像金字塔來确定比例,而是通過在全卷積網絡(FCN)上進行一次直接卷積來預測對象比例。結果,行人和面部檢測通過卷積被簡單地表述為簡單的中心和比例預測任務。所提出的方法的總體流程,表示為基于中心和規模預測(CSP)的檢測器。這項工作的主要貢獻如下:(1)展示了一種新的可能性,即行人和人臉檢測可以通過卷積簡化為直接的中心和尺度預測任務,進而繞開了基于錨框的探測器的局限性,并且 擺脫了基于最近的關鍵點配對的檢測器的複雜後處理。 (2)拟議的CSP檢測器在兩個具有挑戰性的行人檢測基準(CityPersons [55]和Caltech [8])上達到了最新的最新性能,并且在最受歡迎的人臉檢測基準之一上也達到了競争性能。(3)進行跨資料集評估時,建議的CSP檢測器具有良好的泛化能力

論文名額:作者在行人資料集Caltech, Cityperson資料集上做了實驗,使用False Positive Per Image(FPPI)作為評估名額。CSP方法在Caltech資料集上的Reasonable、All、Heavy Occlusion狀态下FPPI名額分别是最好的3.8%、54.4%、36.5%,在CityPerson資料集上的Reasonable、Heavy Occlusion狀态下FPPI名額分别是的11.1%、49.3%,

論文标題:Scale Match for Tiny Person Detection

論文下載下傳位址:https://arxiv.org/abs/1912.10664

代碼下載下傳位址: https://github.com/ucas-vg/TinyBenchmark

論文簡介:論文提出了一個新的benchmark, TinyPerson, 其中包含了很多小的人體目标,另外,作者通過實驗發現,在檢測任務中,pre-training和detector訓練資料之間的mismatch會導緻檢測器性能下降,是以提出了一種Scale Match手段來align兩部分的資料集以提升檢測器性能。

論文貢獻:為了檢測微小的人,作者提出了一種簡單而有效的方法,稱為“規模比對”。本文方法的直覺是對齊用于預訓練的資料集的對象比例和用于檢測器訓練的對象比例。規模比對的本質是它可以更好地研究和利用微小規模的資訊,并使卷積神經網絡(CNN)對于微小對象表示更為複雜。本文工作的主要貢獻包括:1.在海上快速救援的背景下,作者引入了TinyPerson,并對野外微小物體檢測提出了巨大挑戰。據所知,這是具有遠距離背景的遠距離人檢測的第一個基準。Train/val注釋将公開釋出,并将建立線上基準以進行算法評估。 2.作者全面分析了有關小人物的挑戰,并提出了尺度比對方法,目的是使網絡預訓練資料集和檢測器學習資料集之間的特征分布保持一緻。 3.提出的比例比對方法提升了最先進的檢測器(FPN)5%的性能。

論文名額:本文提出的方法在MSCOCO上相比其他方法取得了最好的表現AP50為29.21

繼續閱讀