EMR集群中的“ Spark on Yarn核心数”

问题描述

我有一个用于Spark的Emr集群,具有以下2个实例的配置。

r4.2xlarge
8 vCore

因此,我的总vCores为 16 ,而在纱线Vcores中也是如此

我已经提交了一个带有参数--num-executors 2 --executor-cores 5的spark流作业。因此,我假设它将为执行者用完 2 * 5总共10个vcore ,但是仅使用群集中的总共2个内核(驱动程序为+1)

yarn memory aloc

在瞬间,该作业仍在以10(2 * 5)个并行任务运行。似乎每个执行程序内核中仅运行5个线程。

tasks

我在不同的问题和文档中都读过-executor-cores使用实际的vCore,但是在这里,它仅将任务作为线程运行。 我的理解在这里正确吗?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

依赖报错 idea导入项目后依赖报错,解决方案:https://blog....
错误1:代码生成器依赖和mybatis依赖冲突 启动项目时报错如下...
错误1:gradle项目控制台输出为乱码 # 解决方案:https://bl...
错误还原:在查询的过程中,传入的workType为0时,该条件不起...
报错如下,gcc版本太低 ^ server.c:5346:31: 错误:‘struct...