我计算精度和召回率时出了什么问题?

问题描述

confusion matrix

假设有8个红球,1个绿色和1个蓝色。数据非常不平衡。我很愚蠢,预测10个都是红色。我是否弄清了混淆矩阵?如果是这样,我对所有类别的真实肯定值求和,对所有类别(真实肯定+假肯定值)求和,它们的商应该是我愚蠢分类 precision ,对吧?为什么看起来这么好? 召回也是如此。

此外,他们与sklearn计算的结果不同,这似乎更明智。

from sklearn.metrics import precision_score,recall_score

a = ["R"]*8 + ["G"] + ["B"]
b = ["R"]*10

print("Precision:",precision_score(a,b,average="macro"))
print("Recall:",recall_score(a,average="macro"))
Precision: 0.26666666666666666
Recall: 0.3333333333333333

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)