使用 Spark 日志写入 Spark 应用程序 ID

问题描述

我已经研究了 1 个月,但找不到好的解决方案。认 Spark 日志不包含应用程序 ID。

认日志包含 - "time":,"date":,"level":,"thread":,"message"

我尝试自定义 log4j 属性,但找不到方法。我是大数据领域的新手。

我的认 log4j.properties 文件

log4j.rootLogger=${hadoop.root.logger}
hadoop.root.logger=INFO,console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{2}: %m%n

有人知道解决办法吗?感谢您的帮助,即使是很小的帮助。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)