天天看點

結合OPENNI2,Aruco與OPENCV進行視覺定位

前些時間寫了篇文章把我在做這個項目中遇到的問題以及思路說了一下,傳送門:

http://jcs130.iteye.com/blog/2185533

在上篇文章的思路下作了實作,已經達到了教授的要求。

首先第一步檢測四個角的坐标,經試驗,在這個高度上把标記直接列印成一張A4紙的大小就可以直接識别:

結合OPENNI2,Aruco與OPENCV進行視覺定位

 我還發現,這個硬體本身的深度資料有點問題,如下圖所示,靠近牆的一側顔色較量說明距離值較近,離牆遠的地方有一個小區域幾乎是黑色,說明很遠,是以如果想要對深度資料進行二值化處理必須要用一個可變的門檻值。

結合OPENNI2,Aruco與OPENCV進行視覺定位

 我在這裡用的方法是先記錄四個頂點的距離,找出最遠距離和最近距離并假設距離的變化是線性的