机器学习 cross_val_score 与 cross_val_predict

问题描述

在构建通用评估工具时,我遇到了以下问题,其中 cross_val_score.mean() 给出的结果与 cross_val_predict 略有不同。

为了计算测试分数,我有以下代码,它计算每个折叠的分数,然后计算所有的平均值。

testing_score = cross_val_score(clas_model,algo_features,algo_featurest,cv=folds).mean()

为了计算 tp、fp、tn、fn,我有以下代码,它计算所有折叠的这些指标(我假设是总和)。

test_clas_predictions = cross_val_predict(clas_model,cv=folds)
test_cm = confusion_matrix(algo_featurest,test_clas_predictions)
test_tp = test_cm[1][1]
test_fp = test_cm[0][1]
test_tn = test_cm[0][0]
test_fn = test_cm[1][0]

这段代码的结果是:

                         algo      test  test_tp  test_fp  test_tn  test_fn
5                  GaussianNB  0.719762       25       13      190       71
4          LogisticRegression  0.716429       24       13      190       72
2      DecisionTreeClassifier  0.702381       38       33      170       58
0  GradientBoostingClassifier  0.682619       37       36      167       59
3        KNeighborsClassifier  0.679048       36       36      167       60
1      RandomForestClassifier  0.675952       40       43      160       56

所以选择第一行 cross_val_score.mean() 给出了 0.719762 (test) 并通过计算得分 25+190/25+13+190+71=0.719063545150... ((tp+tn)/(tp+tn +fp+fn)) 略有不同。

我有机会从 quora 上的一篇文章中读到:“cross_val_predict() 中的元素分组方式与 cross_val_score() 中的略有不同。这意味着当您使用这些函数计算相同的度量时,您可以获得不同的结果。”

这背后有什么特别的原因吗?

解决方法

cross_val_predict 的文档中也提到了这一点:

将这些预测传递到评估指标中可能不是衡量泛化性能的有效方法。结果可能与 cross_validatecross_val_score 不同,除非所有测试集具有相同的大小并且指标在样本上分解。

在您的情况下,您的指标似乎是准确性,它确实分解了样本。但是有可能(实际上很可能,因为总大小不是高度可整除的 299)您的测试折叠的大小不同,这可以解释两者之间非常小的(相对)差异。

相关问答

依赖报错 idea导入项目后依赖报错,解决方案:https://blog....
错误1:代码生成器依赖和mybatis依赖冲突 启动项目时报错如下...
错误1:gradle项目控制台输出为乱码 # 解决方案:https://bl...
错误还原:在查询的过程中,传入的workType为0时,该条件不起...
报错如下,gcc版本太低 ^ server.c:5346:31: 错误:‘struct...