朴素贝叶斯分类器是糟糕的估计器

问题描述

我在 Scikit-learn 指南 (https://scikit-learn.org/stable/modules/naive_bayes.html) 中读到了这个:

[...] 虽然朴素贝叶斯被认为是一个不错的分类器, 已知它是一个糟糕的估计器,因此概率输出 来自 predict_proba 的内容不要太认真'

既不好又体面?

解决方法

好的,让我们提供一些上下文,引用 2nd edition of Francois Chollet's book on Deep Learning 中的一段话,我相信这会对您的审讯有所启发。重点是朴素贝叶斯是第一个所谓的机器学习分类器之一,它假设输入数据中的特征都是独立的(朴素假设),仍然提供“下降”结果;但是,与最近的神经网络相比,分类任务的性能通常要低得多。

朴素贝叶斯是一种基于应用贝叶斯定理的机器学习分类器,同时假设输入数据中的特征都是独立的(一个强大的或“朴素”的假设,这就是名称的来源)。这种形式的数据分析早于计算机,并且在其第一次计算机实现之前的几十年(很可能可以追溯到 1950 年代)被手工应用。贝叶斯定理和统计学基础可以追溯到 18 世纪,这些都是开始使用朴素贝叶斯分类器所需的全部内容。

一个密切相关的模型是逻辑回归(简称 logreg), 有时被认为是现代人的“你好世界” 机器学习。不要被它的名字误导——logreg 是一个 分类算法而不是回归算法。很像 朴素贝叶斯,logreg 早于计算,但它仍然是 由于其简单且用途广泛的性质,时至今日仍然有用。它的 通常,数据科学家首先会尝试使用数据集来获得 感觉手头的分类任务。