在没有 PnP 的情况下在单目视觉里程计中查找相对比例

问题描述

我正在实现一个标准的 VO 算法,有一些变化,即提取特征、匹配特征点、找到基本矩阵并分解以获得姿势。然而,在初始化之后,我没有对后续帧使用 3D-2D 运动估计 (PNP),而是使用相同的 2D-2D 运动估计(使用基本矩阵)。我发现 2D-2D 估计似乎比 3D-2D 更准确。 为了找到第二个姿势相对于第一个姿势的相对比例,我可以找出共同点(对两个帧对进行三角测量)。根据{{​​3}},可以通过求公共点对之间的相对距离的比值来求出相对尺度。

如果 f13Df23D 是来自后续帧对的三角化 3D 点,我随机选择点对并计算距离,这里是相同的粗略代码片段。

indices = np.random.choice(np.arange(0,len(f23D)),size=(5 * len(f23D),2),replace=True)
indices = indices[indices[...,0]!=indices[...,1]]
num = np.linalg.norm(f13D[indices[...,0]] - f13D[indices[...,1]],axis=1).reshape((len(indices),1))
den = np.linalg.norm(f23D[indices[...,0]] - f23D[indices[...,1))
return np.median(num/den).

我也尝试用线性ransac估计器替换最后一行。然而,由于尺度三角剖分并不完美,这些值非常嘈杂,因此在使用不同的 numpy 种子时,尺度估计也有显着差异。

这是在文章中描述的在单眼 VO 中实现相对比例的正确方法吗?如果没有,最好的方法是什么(我不想使用 PNP,因为旋转似乎不太准确)

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)