为什么要归一化朴素贝叶斯后验概率

问题描述

我想了解为什么有必要规范后验。 如果我对朴素贝叶斯定理的误解是错误的,请纠正我。

在公式中

P(B | A)= P(A | B)* P(B)/ P(A)

RHS概率是根据训练数据计算得出的 P(A | B)其中A是输入要素,B是目标类别 P(B)是正在考虑的目标类别的概率, P(A)是输入特征的概率。

一旦计算出这些先验概率,就可以得到测试数据,并根据测试数据的输入特征,计算出目标类别概率P(B | A)(我猜称为后验概率)。

现在,在一些视频中,他们教导说,在此之后,您必须归一化P(B | A)才能获得该目标类别的概率。

为什么那是必须的。 P(B | A)本身不是目标类别的概率吗?

解决方法

原因很简单:

在朴素贝叶斯中,您的目标是找到使后验概率最大化的类,因此,基本上,您希望使该公式最大化的Class_j

enter image description here

由于我们已经假设了独立性,因此我们可以通过以下方式转换P(x|Class_j)分子部分:

enter image description here

比公式中的分子可以变成这样:

enter image description here

由于每个类的分母P(x)都是相同的,因此您基本上可以在最大计算中省略该项:

enter image description here

但是因为分子本身不能代表您的特定概率(省略P(x)),所以您需要除以该数量。

一些二手裁判:

http://shatterline.com/blog/2013/09/12/not-so-naive-classification-with-the-naive-bayes-classifier/ https://www.globalsoftwaresupport.com/naive-bayes-classifier-explained-step-step/

相关问答

错误1:Request method ‘DELETE‘ not supported 错误还原:...
错误1:启动docker镜像时报错:Error response from daemon:...
错误1:private field ‘xxx‘ is never assigned 按Alt...
报错如下,通过源不能下载,最后警告pip需升级版本 Requirem...