注:幫一位朋友介紹工作,歡迎大家star。
![](https://img.laitimes.com/img/9ZDMuAjOiMmIsIjOiQnIsICMyYTMvw1dvwlMvwlM3VWaWV2Zh1Wa-cmbw5CM5M3NyJGbtpndvwFNxkTO0IzNtUGall3LcVmdhNXLwRHdo9CXt92YucWbpRWdvx2Yx5yazF2Lc9CX6MHc0RHaiojIsJye.png)
Attention-guided Context Feature Pyramid Network for Object Detection
https://arxiv.org/pdf/2005.11475.pdf
https://github.com/Caojunxu/AC-FPN
在目标檢測領域,圖像輸入越來越大(1333 * 800),但使用的特征提取網絡還是圖檔分類時候的(224*224).
顯然地,感受野已經“不太夠用”了:因為看得見,是以會相信;如果看不見,那就亂來了。
為解決此問題,AC-FPN設計了一個新的網絡結構,稱為以注意力導向的上下文特征金字塔網絡,該網絡結構通過融合多路不同感受野特征,不僅增大物體感受野,而且還可以利用物體的上下文資訊,更好得給出分類結果。
該模型主要包含兩個子產品:第一個是上下文提取子產品(CEM),它從多個感受野中探索大量上下文資訊,但備援的上下文關系可能會誤導定位以及識别,是以還設計了第二個子產品,稱為注意力引導子產品(AM),該子產品可以通過注意力機制來自适應提取顯著對象周圍的有用資訊。AM由兩個子子產品組成,即上下文注意子產品(CxAM)和内容注意子產品(CnAM),它們分别用于捕獲區分性語義資訊和定位精确位置資訊,進而得到更好的檢測和分割結果。
AC-FPN可以輕松插入現有的基于FPN的模型中,在使用不到200行代碼就可以提升FPN-resnet50近3mAP,在其他前沿架構也取得了很大的提升。
代碼已經開源:https://github.com/Caojunxu/AC-FPN