如何覆盖Databricks群集上的log4j配置?

问题描述

我有一组通过ADF管道运行的本地python脚本。 python脚本作为一单元笔记本驻留在databricks工作区中。我想将所有日志记录信息放在一个地方,可能是一个日志文件,人们可以简单地引用它来了解在管道运行期间到底发生了什么。

我如何解决此问题? 我已使用SparkContext object登录到数据块群集的驱动程序日志。我的自定义记录器名称为CTP_Project,log4j日志如下所示。

enter image description here

问题:我只希望与“ CTP_Project”记录器关联的日志在需要时进行存储和显示

可能的解决方案: 看来databrick集群上的 log4j configuration 可以帮助实现这一目标。我想重写log4j配置可以解决问题。但是,我不知道该怎么做。甚至一个示例log4j config初始化脚本也可以解决该问题。请提出任何解决方案。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)