问题描述
在构建通用评估工具时,我遇到了以下问题,其中 cross_val_score.mean() 给出的结果与 cross_val_predict 略有不同。
为了计算测试分数,我有以下代码,它计算每个折叠的分数,然后计算所有的平均值。
testing_score = cross_val_score(clas_model,algo_features,algo_featurest,cv=folds).mean()
为了计算 tp、fp、tn、fn,我有以下代码,它计算所有折叠的这些指标(我假设是总和)。
test_clas_predictions = cross_val_predict(clas_model,cv=folds)
test_cm = confusion_matrix(algo_featurest,test_clas_predictions)
test_tp = test_cm[1][1]
test_fp = test_cm[0][1]
test_tn = test_cm[0][0]
test_fn = test_cm[1][0]
这段代码的结果是:
algo test test_tp test_fp test_tn test_fn
5 GaussianNB 0.719762 25 13 190 71
4 LogisticRegression 0.716429 24 13 190 72
2 DecisionTreeClassifier 0.702381 38 33 170 58
0 GradientBoostingClassifier 0.682619 37 36 167 59
3 KNeighborsClassifier 0.679048 36 36 167 60
1 RandomForestClassifier 0.675952 40 43 160 56
所以选择第一行 cross_val_score.mean() 给出了 0.719762 (test) 并通过计算得分 25+190/25+13+190+71=0.719063545150... ((tp+tn)/(tp+tn +fp+fn)) 略有不同。
我有机会从 quora 上的一篇文章中读到:“cross_val_predict() 中的元素分组方式与 cross_val_score() 中的略有不同。这意味着当您使用这些函数计算相同的度量时,您可以获得不同的结果。”
这背后有什么特别的原因吗?
解决方法
cross_val_predict
的文档中也提到了这一点:
将这些预测传递到评估指标中可能不是衡量泛化性能的有效方法。结果可能与 cross_validate
和 cross_val_score
不同,除非所有测试集具有相同的大小并且指标在样本上分解。
在您的情况下,您的指标似乎是准确性,它确实分解了样本。但是有可能(实际上很可能,因为总大小不是高度可整除的 299)您的测试折叠的大小不同,这可以解释两者之间非常小的(相对)差异。