两种寻找信息熵的方法之间的差异

问题描述

所以我从可汗学院了解到信息熵的概念,其中的表述形式为“每个符号需要的是或否问题的平均数量”。他们还使用对数给出了另一种形式。

假设我们有一个生成 A、B 和 C 的符号生成器。 P(A)=1/2,P(B)=1/3,P(C)=1/6 根据他们的方法,我会得到一个这样的图表: First method

然后我将他们出现的概率乘以每次给予所需的问题数量 (1/2)*1+(1/3)*2+(1/6)*2 = 1.5bits

但他们的其他方法给出 -(1/2)log2(1/2)-(1/3)log2(1/3)-(1/6)log2(1/6)= 1.459...位

差异很小,但仍然显着。我已经用不同的组合和概率尝试过这个,并得到了类似的结果。有什么我想念的吗?我使用的任何一种方法都错了,还是其中一种方法更有条件?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)