天天看點

CVPR 2018:劍橋大學等研發“暴力行為”檢測系統,用無人機精準識别人群暴力

該系統使用研究人員編制的“Aerial Violent Individual”資料集來訓練。有25個人被召集來示範打鬥、刺殺、射擊、踢打和掐脖子等動作,得到2000張帶注釋的圖像。每張圖檔上一般有2到10個人,是以,這個系統現在還不能用于處理非常大的人群。

CVPR 2018:劍橋大學等研發“暴力行為”檢測系統,用無人機精準識别人群暴力

AVI資料集中的暴力行為,包括掐脖子,拳打,腳踢,射擊和刺殺

當系統需要處理的人數更少時,準确率最高。比如一張圖檔上隻有一個人,系統的準确率為94.1%,但有5個人時,準确率就降到了84%,10個人時準确率降到79.8%。該論文的合作者Amarjot Singh說:“準确性下降主要是因為系統沒有檢測到其中的一些人。”

CVPR 2018:劍橋大學等研發“暴力行為”檢測系統,用無人機精準識别人群暴力

很難判斷這個無人機系統到底有多準确,因為它還沒有在真實環境下對普通人群進行測試——測試者僅僅是研究團隊招募來的志願者。也就是說,它是用假裝互相打鬥的資料訓練的,測試也是同樣。而且,它是一個研究項目,還不是商業産品。

CVPR 2018:劍橋大學等研發“暴力行為”檢測系統,用無人機精準識别人群暴力

左圖展示了在人體上注釋的14個身體關鍵點。 右圖展示了Parrot AR 無人機捕獲資料集中的圖像以及幾個注釋關鍵點的特寫。

當無人機在2米、4米、6米和8米高處時,輸入系統的圖像也被記錄下來。這就能知道它離人群有多近。考慮到無人機飛行的聲音很大,在真正的人群和鬥毆行為中,這些無人機會在幾百英尺之外,一定程度上降低了能見度。

CVPR 2018:劍橋大學等研發“暴力行為”檢測系統,用無人機精準識别人群暴力

圖:僅使用無人機在2m(第1排),4m(第2排),6m(第3排)和8m(第4排)四個不同高度記錄的僅有一個暴力分子的無人機監視系統(DSS)

實時視訊分析是使用兩個Nvidia Tesla GPU實時地在Amazon的雲服務上進行的,而無人機的内置硬體可以指揮其飛行動作。該技術是在本地機器上使用單個Tesla GPU進行訓練的。

“該系統以每秒5幀到16幀的速度在空中實時拍攝的影像中檢測到暴力分子,最多檢測10人,最少2人。”論文指出。

争議:技術被惡意使用的風險

在雲端執行推理有潛在的安全和隐私風險,因為要将人們的視訊傳輸到第三方計算系統中。為了減少法律上的麻煩,訓練好的神經網絡處理無人機在雲中接收到的每幀圖像,在處理完後就将圖像删除。

“這增加了資料安全層,因為我們隻是在需要的時候才把資料儲存在雲上,”劍橋大學博士生Singh說。

使用AI進行監視很令人關注。類似的面部識别技術,如亞馬遜的Rekognition服務,已經被美國警方采用。這些系統經常受到高誤報率的困擾,或者根本就不準确,是以像這樣的技術要和無人機結合還需要一段時間。

有趣的是,谷歌和Facebook最近也發表了一些研究,表明神經網絡可以用來跟蹤姿勢,專家們也對神經網絡如何用于數字監視或軍事目的提出了擔憂。現在,無人機監測暴力分子的研究證明了這是可能的。

研究人員使用 Parrot AR無人機(價格相當便宜)進行實驗。運作也很便宜。這個實驗在亞馬遜的平台上運作,每小時花費0.1美元,是以系統經過訓練後的運作不會太貴。

Singh承認,“人們可能會把這個系統用于惡意應用程式,但訓練這樣的系統将需要大量的資料和大量的資源。我希望有一些監督能夠避免濫用這種技術。”

但他認為業餘愛好者為了惡意的原因重新程式設計無人機的擔憂是沒有根據的。 “購買無人機确實很容易,但設計一種能夠識别暴力個體的算法需要一定的專業知識,涉及設計不易獲得的深層系統,我不認為這些系統很容易實作,”他說。

研究人員計劃在兩個音樂節期間在真實環境中測試他們的系統,并監測印度的國界。 如果表現良好,他們希望未來将其商業化。

原文釋出時間為:2018-06-7

本文來自雲栖社群合作夥伴新智元,了解相關資訊可以關注“AI_era”。

原文連結:

CVPR 2018:劍橋大學等研發“暴力行為”檢測系統,用無人機精準識别人群暴力

繼續閱讀