Why Spark job is taking more time with more(increased) memory.

Scenario :在3节点Spark集群中,我正在运行一个spark作业,它从文件读取记录并将其写入Cassandra.Spark作业大约需要1.5分钟,应用程序内存为 512MB ,驱动程序内存为 256MB . 当我增加应用程序内存和驱动程序时内存分别为 2gb1gb ,火花作业需要大约1.9分钟才能完成 .

在这两种情况下,核心数为8 .

以下是GC日志:

2.427:[GC [PSYoungGen:132096K-> 18186K(153600K)] 132096K-> 18258K(503296K),0.0286130 secs] [次:用户= 0.06 sys = 0.01,real = 0.03 secs]

9.122:[GC [PSYoungGen:135158K-> 21493K(153600K)] 135230K-> 24832K(503296K),0.0614060 secs] [次:用户= 0.10 sys = 0.06,real = 0.06 secs]

338.579:[GC [PSYoungGen:153589K-> 21489K(153600K)] 156928K-> 51431K(503296K),0.0619670 secs] [次:用户= 0.10 sys = 0.02,real = 0.06 secs]

使用 increased memory ,Spark工作应该花费更少的时间, but why it is taking more time?