数据处理时间随着 Hadoop 集群中节点数量的增加而减少的模式

问题描述

当使用 Hadoop 集群处理数据时,随着节点数量增加,并行度增加,处理时间减少。假设我们从一个 3 节点集群开始,如果我们添加一个节点,处理时间会减少,我们可以通过这种方式添加更多节点。随着我们不断增加节点数量,处理时间是否会减少,并且一旦超过一定数量的节点,它会停止减少吗?我浏览了使用 Spark application time processing depending on the number of computing nodes 的相关线程,并提到添加更多节点会带来开销。如何知道 Hadoop 集群的最佳节点数,以便在处理时间方面获得最佳性能? 谢谢。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)