问题描述
我想比较我从网络摄像头获得的姿势与从图像获得的姿势。姿态估计的基本代码来自:https://github.com/opencv/opencv/blob/master/samples/dnn/openpose.py
如何将我自己的实时姿势与图像的姿势进行比较,并在两个姿势在某个阈值内匹配时返回 True?
例如,如果我将手臂放在某个位置以匹配某人做同样事情的图像,我如何获得匹配程度的结果?
这样做的方法是什么/我在哪里可以找到更多信息?
我想比较我从网络摄像头获得的姿势与从图像获得的姿势。姿态估计的基本代码来自:https://github.com/opencv/opencv/blob/master/samples/dnn/openpose.py
如何将我自己的实时姿势与图像的姿势进行比较,并在两个姿势在某个阈值内匹配时返回 True?
例如,如果我将手臂放在某个位置以匹配某人做同样事情的图像,我如何获得匹配程度的结果?
这样做的方法是什么/我在哪里可以找到更多信息?