能否以及如何在 R 中对来自正态分布的一对样本进行互信息测试?

问题描述

我想问一个例子,计算从 R 中的标准正态分布中选择的两个样本的互信息,因为到目前为止我找到的所有帖子都是关于离散变量的。这包括entropy 的文档:

# load entropy library
library("entropy")
# joint distribution of two discrete variables
freqs2d = rbind( c(0.2,0.1,0.15),c(0.1,0.2,0.25) )
# corresponding mutual information
mi.plugin(freqs2d)
# MI computed via entropy
H1 = entropy.plugin(rowSums(freqs2d))
H2 = entropy.plugin(colSums(freqs2d))
H12 = entropy.plugin(freqs2d)
H1+H2-H12
# and corresponding (half) chi-squared divergence of independence
0.5*chi2indep.plugin(freqs2d)

需要正态分布的 pdf,但函数是否需要离散化,例如对样本中的值进行分箱?

互信息可能只参考随机变量,而不是样本,但它不会像相关性那样通用。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)