问题描述
我已经运行了一些spark作业,并获得了他们的json日志。我特别在寻找分钟 最大和中值峰值内存指标。但是,在json日志中,它们的描述如下:
{"Event":"org.apache.spark.sql.execution.ui.SparkListenerSQLExecutionStart",......,"metrics":[...,{"name":"peak memory total (min,med,max)","accumulatorId":5,"metricType":"size"},...],......
我无法在日志中找到累加器值。到目前为止,我知道Spark服务器的REST API提供了此类指标,但是我需要从FileSystem采购它们。
我尝试了诸如spark.metrics.executorMetricsSource.enabled = true之类的视锥细胞,但无济于事(嗯,我刚刚意识到它的默认值为true ...)
任何通过写入文件系统的Spark日志访问峰值内存指标的方法,无论是通过累加器还是其他方法。预先感谢!
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)