spark :缓存在容器中的数据死后会发生什么?

问题描述

我有一个由 9 个节点组成的集群,可扩展到 19 个节点。 我将数据帧保存在内存中,内存中的数据大小为 61.9 Gb。 然后,由于配置中的一些问题,Yarn 开始与一些节点失去连接(这不是 OutOfMemory 问题)。

每个节点死亡后,都会创建一个新节点。

所以我注意到缓存数据帧的内存大小随着每个节点的创建而不断增加,达到 110 Gb!

我以为当一个容器死掉时,它缓存在内存中的数据会被拆分到其他容器上,或者全部移动到一个新容器中,因此内存大小保持不变。

>

但是内存中的数据大小不断增加。

所以我真的不明白当它的容器死了时缓存的数据会发生什么?

为什么它一直在增加?

非常感谢!

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)