如何在 Spark Dataframe 中执行 Tukey HSD 测试?

问题描述

我正在尝试使用 pyspark 在非常大的数据集上执行 Tukey 测试。 现在我知道在 python 中我们可以使用 pairwise_tukeyhsd 模块中的 statsmodels.stats.multicomp 库。 这将需要我将我的 spark 数据框转换为 Pandas 数据框,这违背了使用 RDD 的目的,并且不适用于我的大型数据集。

另一种方法是手动对火花数据帧进行数学测试,这很简单,如图here 但是,要将 meansQ_crit 值进行比较,我需要 Tukey 的临界值表。

有没有办法计算 Tukey 表上的临界值?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

错误1:Request method ‘DELETE‘ not supported 错误还原:...
错误1:启动docker镜像时报错:Error response from daemon:...
错误1:private field ‘xxx‘ is never assigned 按Alt...
报错如下,通过源不能下载,最后警告pip需升级版本 Requirem...