问题描述
我试图了解Mediapipe提供的tflite Iris landmarks model的输出。
model card 将输出描述为71个2D界标和5个2D界标。检查模型时,如下所示:
interpreter = tf.lite.Interpreter(model_path='iris_landmark.tflite')
interpreter.allocate_tensors()
output_details = interpreter.get_output_details()
print(output_details)
[{'dtype': numpy.float32,'index': 384,'name': 'output_eyes_contours_and_brows','quantization': (0.0,0),'quantization_parameters': {'quantized_dimension': 0,'scales': array([],dtype=float32),'zero_points': array([],dtype=int32)},'shape': array([ 1,213],dtype=int32),'shape_signature': array([ 1,'sparsity_parameters': {}},{'dtype': numpy.float32,'index': 385,'name': 'output_iris','shape': array([ 1,15],'shape_signature': array([ 1,'sparsity_parameters': {}}]
我在模型输出中看到213个值和15个值-因此,我假设每个点都获得了x / y / z坐标。在图像上运行模型后,我得到的值在-7000到+7000范围内。我输入的是64x64的图片,您知道这些点如何与原始图片相对应吗?
我想获得在mediapipe示例中呈现的眼睛关键点的像素坐标。