将日志文件与现有的数据块集群分开

问题描述

我有一个 Airflow 管道,可将任务请求发送到 Azure Databricks。对于管道中的每个任务,都会在 Databricks 中创建一个新集群,这对于具有大量任务的管道来说非常耗时。我可以在 Databricks 中创建一个集群,并将其 id 赋予管道中的任务,以将其用作现有集群,从而解决为每个任务创建集群的问题。 但是,此解决方案的代价是所有任务都将其日志转储到同一文件中。 我的问题是有没有办法将每个任务的日志分开,以便轻松跟踪不​​同任务的进程或错误

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)