有没有一种方法可以使用Python定期检查Spark应用程序的状态,如果无法运行,请重新运行Spark应用程序?

问题描述

我有一个火花集群,其中使用1个主控和5个工人。 我使用pyspark sparkSession将应用程序提交到集群。

是否可以使用python检查应用程序是否仍在运行,并在启动后重新启动spark应用程序?

def run():
  spark = SparkSession
         .builder()
         .master("spark://master:7077")
         .appName("Test")
         .getOrCreate()
   
run()

# check app status each 10sec
while True:
  # check status
  if dead:
    run()
  sleep(1)

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

错误1:Request method ‘DELETE‘ not supported 错误还原:...
错误1:启动docker镜像时报错:Error response from daemon:...
错误1:private field ‘xxx‘ is never assigned 按Alt...
报错如下,通过源不能下载,最后警告pip需升级版本 Requirem...