问题描述
我有一个包含 4 类分类的不平衡数据集,我构建了 MultinomialNB 并使用了 10 折的 k 折交叉验证,我想计算准确率、精度、召回率、f1_score
所以我使用了以下方法
scoring = {'accuracy' : make_scorer(accuracy_score),'precision' : make_scorer(precision_score),'recall' : make_scorer(recall_score),'f1_score' : make_scorer(f1_score)}
cv = KFold(n_splits=10,random_state=1,shuffle=True)
model = MultinomialNB()
scores = cross_validate(model,X_train_tfidf,y,scoring=scoring,cv=cv,n_jobs=-1)
print(scores)
但作为输出,所有数组都是 NaN
'test_accuracy': array([nan,nan,nan]),'test_precision': array([nan,'test_recall': array([nan,'test_f1_score': array([nan,nan])}
我也用过
scoring = {'accuracy' : 'accuracy','precision' : 'precision','recall' : 'recall'
}
结果还是一样
那么对于 k 折交叉验证,还有另一个为什么要计算准确度、精确度、召回率、f1_score 的原因吗?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)