2011-12-13 39 views
0

我正在开发一款应用程序,该应用程序使用LK进行跟踪和POSIT估算。我成功地获得了旋转矩阵,投影矩阵并能够完美跟踪,但对于我来说问题是我无法正确地转换3D对象。该物体不适合适合的地方。无法将摄像头视图校准为3D模型

有人会帮我解释吗?

回答

1

检查这个链接,他们可能会提供一些想法。

http://computer-vision-talks.com/2011/11/pose-estimation-problem/

http://www.morethantechnical.com/2010/11/10/20-lines-ar-in-opencv-wcode/

现在,你还必须检查内在相机参数是否正确。即使在估计视场时出现小的误差也会在尝试重建3D空间时造成麻烦。从你的细节看来,这个问题似乎是错误的fov角度(视野)。

您可以尝试对它们进行测量,或者将半值或双值输入到算法中。

fov有两种约定:半角(从图像中心到顶部或左侧,或从底部到顶部,分别从左到右)也许你只是混合起来,使用全角而不是一半,或反之亦然

0

也许您可以向我们展示如何从R和T组件构建变换矩阵?请记住,cv :: solvePnP函数返回逆变换(例如,世界上的相机) - 它会在相机所在的(0; 0; 0)三维空间中找到对象姿态。对于几乎所有的情况,您都需要反转以得到正确的结果:{R t; -T}