天天看點

深度:Leap Motion手勢識别大揭秘 基于雙目視覺的手勢識别 Leap Motion——Orion的優劣勢 其他的手勢識别産品

來源:http://tech.163.com/16/0503/10/BM4QI1OF00094P0U.html

2013年,初創公司Leap釋出了面向PC及蘋果電腦MAC的體感控制器Leap Motion。但是當時Leap Motion的體驗效果并不好,又缺乏使用場景,與二維計算機及終端有着難以調和的沖突。

而VR的出現,仿佛為Leap Motion新開了一扇天窗,Leap Motion倡導的三維空間互動與VR可謂完美結合,是以Orion應運而生。Orion是原有的Leap Motion軟體的一個更新版本,硬體不變。在VR系統中,Orion提供了一種手勢的輸入方式,它可以将手部的活動資訊實時回報到處理器,最後顯示在VR頭顯中。

深度:Leap Motion手勢識别大揭秘 基于雙目視覺的手勢識别 Leap Motion——Orion的優劣勢 其他的手勢識别産品

簡單來說,Leap Motion是基于雙目視覺的手勢識别裝置。那什麼是基于雙目視覺的手勢識别呢?

基于雙目視覺的手勢識别

顧名思義,雙目視覺就是有兩個攝像頭,利用雙目立體視覺成像原理,通過兩個錄影機來提取包括三維位置在内的資訊進行手勢的綜合分析判斷,建立的是手部的立體模型。這種方法對于使用者手勢的輸入限制較小,可以實作更加自然的人機互動,但由于需要進行立體比對,且由于立體模型的複雜性,需要處理大量的資料,計算相對來說較複雜。

要實作雙目手勢識别首先需要對雙目攝像頭做标定,即是計算空間中左右兩台錄影機位置的幾何關系。首先是對單錄影機的标定,其主要任務是計算錄影機的内部參數(包含錄影機的投影變換矩陣和透鏡畸變參數)和外部參數(包含相對于某個世界坐标系的旋轉矩陣和平移向量),形象點說,錄影機本身存在畸變,如果不經過标定過程,錄影機所拍攝出的影響是存在畸變的,即可能将原本的矩形顯示成不規則的圓角四邊形。然後是标定,即計算空兩台錄影機在空間中的相對的幾何位置關系(包含旋轉矩陣和平移向量),通俗講就是使得兩台錄影機所成的影像顯示在同一水準線上。

接下來就是具體的手勢識别過程了。

首先從雙目攝像頭采集操作者手勢動作的左右視覺圖像,通過立體視覺算法生成深度圖像。具體過程:經過立體标定後擷取經過校準的立體圖像對後,進行立體比對,獲得視差圖像,再利用錄影機的内參數及外參數進行三角計算擷取深度圖像。

深度:Leap Motion手勢識别大揭秘 基于雙目視覺的手勢識别 Leap Motion——Orion的優劣勢 其他的手勢識别産品

然後對左(或右)視覺圖像使用手勢分割算法處理,分割出的人手所在的初始位置資訊,并将該位置作為手勢跟蹤算法的起始位置。

再使用手勢跟蹤算法對人手運動進行跟蹤。

再根據跟蹤得到的結果進行手勢的識别。需要說明的是,如果跟蹤目标消失,則重新進行手勢分割,再重複上述步驟。

雙目手勢識别流程圖如下:

深度:Leap Motion手勢識别大揭秘 基于雙目視覺的手勢識别 Leap Motion——Orion的優劣勢 其他的手勢識别産品

Orion采用的即是雙目手勢識别方法,其實作流程與上文所描述的雙目手勢識别實作流程基本一緻,但是通過各種基于Orion的實驗,我在這裡對Orion的細節算法做一個猜想,僅供讀者參考。

Orion相比于上文所述的雙目手勢識别基本方法不同之處在于,Orion在擷取深度圖像的步驟,并未對整個手型上的所有點做立體比對,而是隻選擇了13個左右的特征點(圖中藍色點)做比對,獲得這13個左右特征點的資訊後再利用IK算法推算出整個手部模型。

基于一些實驗,我猜想Orion選擇的特征點是13個左右,如下圖中藍色點:

基于這13個左右的藍色點即可利用IK算法推算出圖中紅色點的資料,并最終獲得整個手部模型。這裡我說一下為什麼猜想是比對特征點而不是比對所有點:

Orion的處理時間為8ms,即從讀到手的圖檔到做完所有計算的時間隻有8ms。這個時間是非常短暫的,要基于這樣的時長來做整個手型上所有點的立體比對是不可能的,隻能選擇一些特征點來做比對,再根據特征點資料去推算(或者說估計)其他點的點雲資料。

我所畫出的這13個點均是較易比對的點,而基于這些點即可利用IK算法建構整隻手的模型。例如某根手指,基于指尖和指根兩個點,即可根據手指長度等資訊利用IK算法推算出手指其他關節點的資料。

此外,如果是比對所有點,則Orion識别手指個數應該更加準确一些,但是目前基于我的實驗顯示,Orion手指個數識别存在較大問題,具體執行個體可以參考下文場景描述。

Leap Motion——Orion的優劣勢

首先我們看看Orion的優勢。為了能夠應用在VR行業中很好的發揮效用,Orion相比于前面的産品有了很大改進:

目前的重新整理率為120HZ,延遲為4ms。一般情況下我們認為,VR領域需要将影像裝置的延遲做到20ms以下,否則會損害沉浸體驗,并且導緻眩暈。VR頭顯螢幕本身就存在一定延遲,互動裝置就必須不能有過大延遲。雖然目前實際的延遲比4ms還是要大一些,不過能做到10ms以下,基本也不影響目前的應用。此外,實際視場角達到150度,适配目前的VR頭顯還是非常有優勢的。

初始化:在初始化方面,Orion有非常大的改進。所謂初始化即手部首次進攝像頭拍攝範圍内的手勢,以前Orion對于首個手勢識别非常有限,僅能識别五個手指張開的手勢。而新的産品則在該方面做了很大改進,目前,以一些正常的不複雜的手勢進入都沒有問題,例如五個手指張開、一個手指張開其他握緊等。(這裡所說的複雜的手勢是指Orion本身無法識别或者識别錯誤率較高的手勢,例如兩根手指疊加在一起的手勢等。)

翻轉: 同樣,Orion在手部翻轉方面有很大改進,準确率有很大提高。

以上是Orion目前應用于VR行業的優勢,也是其可以應用于VR行業的基礎。至于劣勢,我根據自己實際體驗的結果,給大家說幾個Orion目前體驗效果不夠好的場景,讀者也可以拿出自己的Leap Motion裝置測試一下看看事實是不是如此。

手指檢測不夠準确:Orion在手指檢測方面做得依然不夠好,如下圖手勢:

深度:Leap Motion手勢識别大揭秘 基于雙目視覺的手勢識别 Leap Motion——Orion的優劣勢 其他的手勢識别産品

即當我們的中指處于微張開狀态下,Orion多數情況下會識别成完全張開或者完全收起,當我們慢慢的張開中指的過程中,Orion識别的手勢也會有一個突變,及很容易從完全收起的狀态突然變為張開狀态,而失去了張開過程中的手勢跟蹤。

這裡隻是說明其中一個例子,其實還有很多其他這樣的手指檢測不夠準确的狀況。

手指個數檢測不夠準确:Orion手指個數檢測存在很大問題,這裡我簡單介紹兩種情況:

深度:Leap Motion手勢識别大揭秘 基于雙目視覺的手勢識别 Leap Motion——Orion的優劣勢 其他的手勢識别産品

上圖展示的是将兩個手指認成三根手指,即當使用者兩個手指分開過大時,Orion很容易在兩個手指中間再添加一個手指。這個問題出現的原因依我猜想可能是Orion在手勢檢測中對于兩個手指的張開距離有一個門檻值,如果大于這個門檻值就認定中間還有一根手指,而之是以沒檢測到這根手指的指尖特征點可能是由于遮擋。

深度:Leap Motion手勢識别大揭秘 基于雙目視覺的手勢識别 Leap Motion——Orion的優劣勢 其他的手勢識别産品

上圖展示的是一個較複雜的手勢,識别出現錯誤。因為Leap Motion的攝像頭在使用者頭頂上,以攝像頭視角看中指與食指重疊,無法拍到中指指尖。是以算法判定隻有一根手指張開,即出現上圖所示識别狀态。

側面手指資訊過少,估計不準确:Orion對處于側面的手勢識别很差,這也是當時作者猜測其使用13個特征點比對的一個小原因。當手處于側面面對攝像頭時,特征點大部分均被遮擋,造成手部準确資訊非常少,所謂的估計就基本上是胡亂猜測了,是以無法準确判斷側面的手勢中手指的狀态。如下圖即是手部側面對着使用者佩戴的Leap Motion,将兩根手指識别成三根手指:

深度:Leap Motion手勢識别大揭秘 基于雙目視覺的手勢識别 Leap Motion——Orion的優劣勢 其他的手勢識别産品

其他的手勢識别産品

目前國際上比較具有代表性的還有RealSense的手勢識别,該産品應用的是深度攝像頭,可以直接擷取深度圖像。得到深度資料後,後面的具體算法步驟就與雙目識别的一樣了。這種直接擷取深度圖像的算法,因為本身具有手部所有點的深度資訊,不需要估計,是以準确度更高。國内采用深度攝像頭的有我們G-Wearables團隊獨立研發的StepVR産品中的手勢識别方法。

基于深度攝像頭的手勢識别方法無需購買昂貴的裝置,僅需要深度攝像頭、PC機即可,手勢識别準确率高,并且在操作時更加自然、友善,符合以人為本和自由性的要求,是手勢識别未來發展的趨勢。對基于深度攝像頭的手勢識别感興趣的讀者可以關注我後續的文章。

繼續閱讀