问题描述
我正在做一个项目,在这个项目中,我必须校准相机以计算相机矩阵并将其用于其他过程
我使用Zahng的方法(棋盘格)校准了相机,并使用两种不同的工具进行了校准: 1- Matlab校准工具 2-OpenCV方法(cv2.calibrateCamera())
对于这两种方法,我使用了相同的图像(16张图像)。
结果表Matlab
4380.06266797091 0 0
0 4374.31691291339 0
949.990213743877 664.725183192415 1
#Radial distortion Coefficient
-0.355521260561817 1.30195034883959
#tangational distortion Coefficient
0 0
#average REPROJECTION ERROR
0.513903578285060
----------------------------------------------------
结果来自OpenCV代码
#camera matrix
mtx [[4.38350928e+03 0.00000000e+00 9.73653727e+02]
[0.00000000e+00 4.37873075e+03 6.68924323e+02]
[0.00000000e+00 0.00000000e+00 1.00000000e+00]]
#distortion Coefficients
dist [[-3.59709752e-01 3.91496111e+00 3.43950578e-03 1.01871917e-03
-6.21911790e+01]]
所以我的问题是:
1-由于主点稍有不同,因此认为结果更准确
2-为什么OpenCV会考虑5个失真系数,而Matlab会考虑4个(两个在Opencv中不是零,所以零!)
预先感谢
解决方法
这些评论使我找到了解决问题的方法。归功于@ fmw42