我在spark-env.sh中的spark独立集群中设置了以下配置

SPARK_WORKER_CORES = 15 SPARK_WORKER_INSTANCES = 10

在3个节点(3个工作者)1个主m4.4xlarge亚马逊ec2实例 . 我按照下面的步骤进行了操作

https://stackoverflow.com/questions/29955133/how-to-allocate-more-executors-per-worker-in-standalone-cluster-mode#=

一旦我启动了我的集群,我发现有10个执行程序分配给每个工作程序但是有高内存(1400 GB)被分配给集群 . 同时实例计数保持不变(总共4个,1个主人,3个 Worker ) . 有什么我想念的吗?