天天看點

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

每天一分鐘,帶你讀遍機器人頂級會議文章

标題:Augmented LiDAR Simulator for Autonomous Driving

作者:Jin Fang, Dingfu Zhou,Feilong Yan, Tongtong Zhao, Feihu Zhang, Yu Ma and Liang Wang, Ruigang Yang

來源:2020 IEEE International Conference on Robotics and Automation (ICRA)

編譯:喻靖壹

稽核:王靖淇,柴毅

這是泡泡一分鐘推送的第 873 篇文章,歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,背景留言申請授權

摘要

在自動駕駛中,檢測和跟蹤道路上的障礙物是一項關鍵任務。使用帶注釋的LiDAR資料的基于深度學習的方法已成為最廣泛應用的方法。然而注釋3D點雲是一項極具挑戰性、且費時又費财的任務。在本文中,我們提出了一種新的LiDAR模拟器,它通過合成的障礙物(如車、行人以及其他可移動的物體)來增強點雲。與之前完全依賴CG模型和遊戲引擎的模拟器不同,我們的增強模拟器繞過了制作高保真背景CAD模型的要求。相反,我們能簡單地部署一輛帶有LiDAR掃描器的車掃描感興趣的街道來擷取背景點雲,在此基礎上能自動生成帶注釋的點雲。這項獨特的“掃描和模拟”功能使得我們的方法具有可擴充性和實用性,為大規模的工業化應用做好了準備。在本文中,我們較長的描述了我們的模拟器,特别是對性能增強至關重要的障礙物的放置。我們展示了僅使用我們模拟的LiDAR點雲的檢測器的表現能與使用真實資料訓練的檢測器相媲美(在兩個百分點内)。混合真實資料和模拟資料能夠達到超過95%的準确率。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

圖1. 使用不同方法得到的模拟點雲。(a) 是由CARLA生成的,(b) 是由我們提出的方法得到的,(c) 是Velodyne HDL-64E采集到的真實點雲。第二行展示了點雲的鳥瞰圖。請注意我們方法中固有的豐富背景。

圖2. 本文提出的LiDAR點雲模拟架構。(a) 是用專業的3D掃描器得到的描述準确,具有語義資訊的密集背景。(b) 展示了合成的可移動障礙物,如車輛、騎自動車的人和其他物體。(c) 展示了基于機率圖在靜态背景中放置前置障礙物(黃色框)的示例。(d) 是使用我們精心設計的模拟政策模拟LiDAR點雲的示例,其中包含3D邊界框的真值框(綠色框)。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

圖3.左子圖展示了RIEGL掃描器獲得的點雲執行個體,其中包含超過2億個3D點。該場所的實際面積約為600m 270m。右子圖展示了點雲的詳細結構。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

圖4.人造的CAD模型。為了實際的AD應用,我們的模拟中考慮了還一些不常見的類别,例如交通錐、嬰兒車和三輪車等。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

圖5.Velodyne HDL-64E S3的幾何模型,它以預設速率發射64束雷射束并旋轉以覆寫360度視圖。

表1.不同類别的3D模型數量。一些不常見的類别包含在類别“others”中,如交通錐、嬰兒車和三輪車。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

圖6.通過将周圍的點雲投影到以LiDAR原點為中心的立方體的6個面上生成的立方體貼圖。此處我們隻展示了6個不同視圖的深度圖。

表2. 不同的仿真點雲訓練的模型在KITTI基準上的性能。其中,“CARLA”和“Proposed”分别表示由CARLA和本文提出的方法生成的點雲訓練的模型,“Real KITTI”表示模型是KITTI訓練資料訓練的,“CARLA+Real KITTI”和“Proposed+Real KITTI”表示模型是先在仿真資料上訓練,然後在KITTI訓練資料上進行微調。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

表3.在進行執行個體分割任務方面,使用純模拟點雲訓練得到的模型可以取得與真實資料集訓練得到的模型相當的結果。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

表4.不同背景下的執行個體分割評估結果,其中“Sim”,“BG”和“FG”分别代表“仿真”,“背景”和“前景”。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

表5.不同障礙物姿态的執行個體分割評估結果。

表6.有或沒有随機丢棄的執行個體分割的評估結果。

【泡泡一分鐘】用于自動駕駛的增強型LiDAR仿真器

圖7. 在相同的LiDAR位置和障礙物群的條件下,VLS-128的仿真執行個體,其中(a)是仿真點雲,(b)是真實點雲。

Abstract

In Autonomous Driving (AD), detection and tracking of obstacles on the roads is a critical task. Deep-learning based methods using annotated LiDAR data have been the most widely adopted approach for this. Unfortunately, annotating 3D point cloud is a very challenging, time- and money-consuming task. In this paper, we propose a novel LiDAR simulator that augments real point cloud with synthetic obstacles (e.g., cars, pedestrians, and other movable objects). Unlike previous simulators that entirely rely on CG models and game engines, our augmented simulator bypasses the requirement to create high-fidelity background CAD models. Instead, we can simply deploy a vehicle with a LiDAR scanner to sweep the street of interests to obtain the background point cloud, based on which annotated point cloud can be automatically generated. This unique ”scan-and-simulate” capability makes our approach scalable and practical, ready for large-scale industrial applications. In this paper, we describe our simulator in detail, in particular the placement of obstacles that is critical for performance enhancement. We show that detectors with our simulated LiDAR point cloud alone can perform comparably (within two percentage points) with these trained with real data. Mixing real and simulated data can achieve over 95% accuracy.

繼續閱讀