在Dstream Spark 1.6.0中使用一个分区获取RDD

问题描述

我正在使用DStream,Spark版本是1.6.0。我在Dstream数据上应用了foreachRDD,当我在foreachRDD内检查RDD的分区大小时,即使应用map/filter/flatmap转换后,它也仅显示1个分区,因为1个分区,它仅使用1个任务。保留RDD之后,Spark UI仅显示1个缓存分区。

我的疑问是,为什么即使在大型RDD上,我的RDD也不会分成多个分区。我需要使用重新分区还是为此配置?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)