首页 文章

使用--master yarn-cluster运行spark-submit:spark-assembly问题

提问于
浏览
9

我在kerberized集群上运行Spark 1.1.0,HDP 2.1 . 我可以使用--master yarn-client成功运行spark-submit,并将结果正确写入HDFS,但是,该作业未显示在Hadoop All Applications页面上 . 我想使用--master yarn-cluster运行spark-submit但是我继续收到此错误:

appDiagnostics: Application application_1417686359838_0012 failed 2 times due to AM Container
for appattempt_1417686359838_0012_000002 exited with  exitCode: -1000 due to: File does not
exist: hdfs://<HOST>/user/<username>/.sparkStaging/application_<numbers>_<more numbers>/spark-assembly-1.1.0-hadoop2.4.0.jar
.Failing this attempt.. Failing the application.

我've provisioned my account with access to the cluster. I'配置了yarn-site.xml . 我已经尝试过包括--jars [spark / lib中的spark程序集的路径] . 我发现this question非常相似,但没有答案 . 我不知道这是2.1问题,火花1.1.0,kerberized集群,配置,或什么 . 任何帮助将非常感激 .

1 回答

  • 12

    这可能是因为你在代码中留下了 sparkConf.setMaster("local[n]") .

相关问题