首页 文章

Spark - 错误:无法找到或加载主类org.apache.spark.launcher.Main

提问于
浏览
3

我刚刚开始玩Spark和我'm already struggling. I just downloaded Spark' s spark-1.6.1-bin-hadoop2.4 并尝试打开PySpark Shell ./bin/pyspark 但不幸的是我提示如下:

Error: Could not find or load main class org.apache.spark.launcher.Main

环境:

  • Ubuntu 14.04.4 64位

  • Java版"1.8.0_77"

  • Python 2.7.6

  • Spark 1.6.1 Hadoop 2.4及更高版本的预构建

有什么线索如何解决这个问题?

It works fine with Spark 1.2.0 Pre-build for Hadoop 2.4 and later

1 回答

  • 0

    请检查机器上是否安装了java并检查lib目录下的所有jar文件是否正常

相关问题