spark 输出到hdfs小文件过多

使用Adaptive Execution 动态设置Shuffle partition 可控制spark sql文件问题

  1. .config("spark.sql.adaptive.enabled", "true") // 开启sparksql Adaptive Execution 自动设置 Shuffle Reducer
  2. .config("spark.sql.adaptive.shuffle.targetPostShuffleInputSize", "67108864b") //设置每个 Reducer 读取的目标数据量

根据Adaptive Execution来启动CBO

  1. .config("spark.sql.adaptive.join.enabled", "true") // 是否根据 Adaptive Execution 做 CBO 优化
  2. .config("spark.sql.autobroadcastJoinThreshold", "20971520") //broadcastJoin 大小
 

相关文章

1.SparkStreaming是什么?SparkStreaming是SparkCore的扩展A...
本篇内容介绍了“Spark通讯录相似度计算怎么实现”的有关知识...
本篇文章给大家分享的是有关如何进行Spark数据分析,小编觉得...
本篇内容主要讲解“Spark Shuffle和Hadoop Shuffle有哪些区别...
这篇文章主要介绍“TSDB的数据怎么利用Hadoop/spark集群做数...
本篇内容介绍了“Hadoop与Spark性能原理是什么”的有关知识,...