无法触发提交python脚本以触发在docker swarm中运行的多节点集群

问题描述

我有一个火花多节点集群,该集群由在docker群中运行的主节点和工作节点组成。主节点和工作节点在两个不同机器上的docker容器中运行。 在同一群(在spark主节点上运行)中存在第三个docker容器,该容器尝试使用以下命令向spark集群提交“ hello world” python脚本: spark-submit --master spark:// master ip,如spark ui :7077 --deploy-mode集群test.py

火花提交引发以下异常:

线程“主”中的异常org.apache.spark.SparkException:独立群集上的python应用程序当前不支持群集部署模式。 在org.apache.spark.deploy.SparkSubmit.error(SparkSubmit.scala:936) 在org.apache.spark.deploy.SparkSubmit.prepareSubmitEnvironment(SparkSubmit.scala:273) 在org.apache.spark.deploy.SparkSubmit.org $ apache $ spark $ deploy $ SparkSubmit $$ runMain(SparkSubmit.scala:871) 在org.apache.spark.deploy.SparkSubmit.doRunMain $ 1(SparkSubmit.scala:180) 在org.apache.spark.deploy.SparkSubmit.submit(SparkSubmit.scala:203) 在org.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:90) 在org.apache.spark.deploy.SparkSubmit $$ anon $ 2.doSubmit(SparkSubmit.scala:1007) 在org.apache.spark.deploy.SparkSubmit $ .main(SparkSubmit.scala:1016) 在org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

所有容器(主容器,工作容器,提交容器)都在同一桥上,并且由docker swarm创建的网络过多。我不明白为什么spark-submit不能识别主URL。 我真的很感谢在此方面的一些帮助,因为我才刚刚开始学习docker swarm和Apache spark。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...