问题描述
我有一个火花多节点集群,该集群由在docker群中运行的主节点和工作节点组成。主节点和工作节点在两个不同机器上的docker容器中运行。 在同一群(在spark主节点上运行)中存在第三个docker容器,该容器尝试使用以下命令向spark集群提交“ hello world” python脚本: spark-submit --master spark:// master ip,如spark ui :7077 --deploy-mode集群test.py
火花提交引发以下异常:
线程“主”中的异常org.apache.spark.SparkException:独立群集上的python应用程序当前不支持群集部署模式。 在org.apache.spark.deploy.SparkSubmit.error(SparkSubmit.scala:936) 在org.apache.spark.deploy.SparkSubmit.prepareSubmitEnvironment(SparkSubmit.scala:273) 在org.apache.spark.deploy.SparkSubmit.org $ apache $ spark $ deploy $ SparkSubmit $$ runMain(SparkSubmit.scala:871) 在org.apache.spark.deploy.SparkSubmit.doRunMain $ 1(SparkSubmit.scala:180) 在org.apache.spark.deploy.SparkSubmit.submit(SparkSubmit.scala:203) 在org.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:90) 在org.apache.spark.deploy.SparkSubmit $$ anon $ 2.doSubmit(SparkSubmit.scala:1007) 在org.apache.spark.deploy.SparkSubmit $ .main(SparkSubmit.scala:1016) 在org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
所有容器(主容器,工作容器,提交容器)都在同一桥上,并且由docker swarm创建的网络过多。我不明白为什么spark-submit不能识别主URL。 我真的很感谢在此方面的一些帮助,因为我才刚刚开始学习docker swarm和Apache spark。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)