天天看點

Fast Point R-CNN | 一個或許跟PointRCNN和Fast RCNN都沒啥關系的點雲目标檢測網絡

【導讀】這是一篇來自ICCV2019的論文,由港中文的賈佳亞教授實驗室完成。雖然名字很接近,但是Fast Point R-CNN不僅跟Fast R-CNN沒有任何關系,它跟Point R-CNN也沒太大關系,找前景點,做精細回歸思想相近。三者唯一的共同點就是它們三個都是two-stage網絡,但是網絡結構完全不同。

Fast Point R-CNN | 一個或許跟PointRCNN和Fast RCNN都沒啥關系的點雲目标檢測網絡

如果要強行歸類的話,Fast Point R-CNN應該算是VoxelNet一派的。這一點從網絡結構圖中可以看出。網絡的第一階段叫做VoxelRPN,類似于VoxelNet/SECOND的網絡結構,用來對體素化的點雲進行處理,網絡由3D卷積層+2D的2D的RPN構成;網絡的第二階段是RefinerNet,将原始點雲加入進來,并融入注意力機制,提高檢測效果。從這個角度來看,這個網絡應該叫Refiner-VoxelNet或許更為貼切(我胡說的)。

  • 網絡結構

下面仔細看下網絡結構,首先是第一階段的VoxelRPN:網絡由四個BLOCK構成,第一個BLOCK由3D卷積核構成,用來對體素進行處理,逐漸把Z次元上降低到1,也就成了2D特征圖了。後面三個BLOCK用來對這個2D特征圖進行進一步的特征提取和融合。這裡筆者根據網絡結構計算了每個層的輸出特征圖的尺寸。

Fast Point R-CNN | 一個或許跟PointRCNN和Fast RCNN都沒啥關系的點雲目标檢測網絡

但是,考慮到體素化處理點雲會丢失一定的定位資訊,影響目标檢測精度。是以,網絡增加了RefinerNet用來進一步優化結果。

Fast Point R-CNN | 一個或許跟PointRCNN和Fast RCNN都沒啥關系的點雲目标檢測網絡

RefinerNet中引入了特征增強和注意力機制,主要由MLP構成。網絡以包圍框特征和點雲坐标作為輸入。通過一個獨特的fusion module來進行特征的融合增強。先将這兩種特征進行拼接并經過兩層MLP處理,然後與包圍框特征得到的權值進行逐元素相乘,就這樣利用注意力機制來增強了網絡的定位能力。最後經過MLP後直接計算出包圍框8個頂點的坐标。

Fast Point R-CNN | 一個或許跟PointRCNN和Fast RCNN都沒啥關系的點雲目标檢測網絡

計算之前先對标簽中的包圍框進行調整,并且約定了角點的順序。

  • 實驗結果
Fast Point R-CNN | 一個或許跟PointRCNN和Fast RCNN都沒啥關系的點雲目标檢測網絡

效果比“體素門派”的SECOND和PointPillars稍微好一點,逼近PointRCNN。速度的話,用的GPU不一樣,比較的意義不是很大。是以你現在已經躍躍欲試,準備入坑Fast Point R-CNN了嗎?

且慢……

Fast Point R-CNN | 一個或許跟PointRCNN和Fast RCNN都沒啥關系的點雲目标檢測網絡

“模型在8塊NVIDIA P40 GPU上進行訓練,batch size設定為16”……

再想想那些在一塊1080Ti上就能訓練的SECOND、PointPillars、Point R-CNN……

往期相關

  • CVPR2019 | PointPillars點雲檢測網絡
  • PointPillars/SECOND代碼調試筆記
  • 香港中文大學點雲檢測論文PointRCNN(一)

歡迎關注公衆号:3D點雲深度學習

Fast Point R-CNN | 一個或許跟PointRCNN和Fast RCNN都沒啥關系的點雲目标檢測網絡

繼續閱讀