天天看点

结合OPENNI2,Aruco与OPENCV进行视觉定位

前些时间写了篇文章把我在做这个项目中遇到的问题以及思路说了一下,传送门:

http://jcs130.iteye.com/blog/2185533

在上篇文章的思路下作了实现,已经达到了教授的要求。

首先第一步检测四个角的坐标,经试验,在这个高度上把标记直接打印成一张A4纸的大小就可以直接识别:

结合OPENNI2,Aruco与OPENCV进行视觉定位

 我还发现,这个硬件本身的深度数据有点问题,如下图所示,靠近墙的一侧颜色较量说明距离值较近,离墙远的地方有一个小区域几乎是黑色,说明很远,所以如果想要对深度数据进行二值化处理必须要用一个可变的阈值。

结合OPENNI2,Aruco与OPENCV进行视觉定位

 我在这里用的方法是先记录四个顶点的距离,找出最远距离和最近距离并假设距离的变化是线性的