火花提交中的连接被拒绝

问题描述

在我的Cluster Kubernates中,我的spark提交产生了此错误:

Caused by: io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: 
 localhost/127.0.0.1:7078  
 Caused by: java.net.ConnectException: Connection refused    
   at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) 
   at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:714) 
   at io.netty.channel.socket.nio.NioSocketChannel.doFinishConnect(NioSocketChannel.java:327)
   at 
 io.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.finishConnect(AbstractNioChannel.java:334)
   at io.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:688)
   at io.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:635)
   at io.netty.channel.nio.NioEventLoop.processSelectedKeys(NioEventLoop.java:552)
   at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:514)
   at io.netty.util.concurrent.SingleThreadEventExecutor$6.run(SingleThreadEventExecutor.java:1044)
   at io.netty.util.internal.ThreadExecutorMap$2.run(ThreadExecutorMap.java:74) 
   at io.netty.util.concurrent.FastThreadLocalRunnable.run(FastThreadLocalRunnable.java:30)
   at java.lang.Thread.run(Thread.java:748)

“我的火花提交”的一部分是:

spark-submit \
    --master $K8S_MASTER_URL \
    --deploy-mode cluster \
    --conf spark.executor.instances=$N_EXECUTORS \
    --conf spark.kubernetes.container.image=$SPARK_IMAGE \
    --conf spark.kubernetes.authenticate.driver.serviceAccountName=$SPARK_SERVICE_ACCOUNT \
    --conf spark.kubernetes.node.selector.spark=true \
    --conf spark.kubernetes.container.image.pullPolicy=Always \
    --conf spark.kubernetes.namespace=$SPARK_NAMESPACE \
    --conf spark.driver.memory=$DRIVER_MEMORY \
    --conf spark.executor.memory=$EXECUTOR_MEMORY \
    --conf spark.kubernetes.driver.pod.name=dbloader-events-$TS \
    --conf spark.kubernetes.pyspark.pythonVersion="3"\
    --conf spark.executorEnv.PYSPARK_PYTHON=/usr/bin/python3 \
    --conf spark.driverEnv.PYSPARK_PYTHON=/usr/bin/python3 \
    --conf spark.driverEnv.PYTHONPATH=/usr/bin \
    --conf spark.executorEnv.PYTHONPATH=/usr/bin \
    --conf spark.driverEnv.PYSPARK_DRIVER_PYTHON=/usr/bin \
    --jars $JAR_DEPENDENCIES

使用spark-submit,我创建了一个在python中启动工作spark的pod。但是这项工作显示了提到的错误 我需要帮助。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

依赖报错 idea导入项目后依赖报错,解决方案:https://blog....
错误1:代码生成器依赖和mybatis依赖冲突 启动项目时报错如下...
错误1:gradle项目控制台输出为乱码 # 解决方案:https://bl...
错误还原:在查询的过程中,传入的workType为0时,该条件不起...
报错如下,gcc版本太低 ^ server.c:5346:31: 错误:‘struct...