天天看點

車型識别的探索和實踐

2.1 研究意義

(1)解決視訊資源無法産生價值、浪費存儲資源的問題

在園區安防、倉儲監管、智慧交通領域,有大量的攝像頭對某一場景進行監控,并将獲得的視訊存儲到本地伺服器,占用大量的存儲資源,存儲一定周期後便進行删除。所獲得視訊資源除了備份之外,并未發揮更多的價值。而通過視訊結構化分析,一方面可以通過提取關鍵幀、關鍵元素來減少視訊存儲的資源消耗,另一方面,便于檢索,在需要時可以更快速地找到目标。

(2)解決無法融入大資料體系的問題

監控錄像作為非結構化資料,它不能直接被計算機讀取和識别,是以一直無法較好地與大資料體系進行相容,無法利用計算機來進行視訊資料的分析和挖掘。而視訊圖像能否通過智能分析技術經濟而又高效地進行結構化處理,是視訊大資料在智慧城市、數字社群領域落地的關鍵。

(3)沉澱産品 —— 視訊結構化分析

視訊結構化不僅僅可以服務于雷數大資料平台,也可以作為單獨的産品提供給客戶,結合人體行為識别,可以針對使用者的某一特定場景産生價值,如勞工進入工地是否帶安全帽、作業行為是否符合規範等。

(4)技術積累 —— 計算機視覺

目前人工智能在工業場景的應用中,計算機視覺技術的需求場景占據較多比例,同時在工業、物流業、智慧城市行業的項目中有多種應用,但公司目前在該領域的技術積累仍然較少,是以實踐和積累相關的計算機視覺技術經驗對于公司未來發展具有重要意義。

2.2 公開資料集

MIO-TCD資料集是由在一天中的不同時間和一年中不同時段獲得的137,743個圖像組成,這些圖像來自在加拿大和美國各地部署的數千個交通錄影機。選擇這些圖像是為了應對廣泛的目辨別别挑戰,并且代表了當今城市交通情景中捕獲的典型視覺資料。每個移動物體已被近200人仔細識别,以便于實作各種算法的定量比較和排序。該資料集旨在提供嚴格的基準測試,用于訓練和測試現有的或新的算法,對交通場景中移動車輛進行分類和定位。

包含的資料标簽有11類:

o Articulated truck(鉸鍊式挂車)

o Bicycle(自行車)

o Bus(公共汽車)

o Car(轎車)

o Motorcycle(機車)

o Motorized vehicle (i.e. Vehicles that are too small to be labeled into a specific category)(因目标對象在圖像中太小而無法标定為特定類别的車輛)

o Non-motorized vehicle(非機動車)

o Pedestrian(行人)

o Pickup truck(皮卡車)

o Single unit truck(單箱載重汽車)

o Work van(7座的商務車或面包車)

類别樣例如下:

Articulated truck Bicycle Bus Car

Motorcycle Non-motorized vehicle Pedestrian Pickup truck

Single unit truck Work van

然後我們開始對車型圖檔進行标注,标注的軟體我們使用的是開源的LabelImg,下載下傳位址:

https://github.com/tzutalin/labelImg

。點選“Open Dir”、“Change Save Dir”選擇剛剛建立的images以及labels檔案夾,接下來就可以使用按鈕選擇需要label的圖檔,點選“Create RectBox”激活視窗繪圖工具,開始标注,如圖5.2所示。

模型訓練完成,如圖所示,能識别出car、work_van、single_unit_truck、pedestrian這些細分特征。mAP=0.70.

2.3 結果評價

YoloV3在其官網的介紹中寫道,其在COCO資料集中能達到60.6%的map,而本文使用的MIO-TCD資料集在2017年的CVPR MIO-TCD挑戰賽的結果中,最高達到了77%的平均精度,是以,本文測試的YoloV3模型的mAP為70%屬于正常範圍。YoloV3在55個epoch的訓練後期有點過拟合了,是以,模型繼續訓練的意義不大,隻能更改YoloV3模型,提高其性能。

YOLOv3參數表如表5.2所示,友善以後再遇到類似目标檢測任務時速查。

表5.2 YOLOv3訓練參數

參數類型 參數值

batch_size 8

image_size 416

cfg.filters num(yolo層個數)*(classes+5)

epoch 52

mAP 0.7

繼續閱讀