我刚刚开始玩Spark和我'm already struggling. I just downloaded Spark' s spark-1.6.1-bin-hadoop2.4
并尝试打开PySpark Shell ./bin/pyspark
但不幸的是我提示如下:
Error: Could not find or load main class org.apache.spark.launcher.Main
环境:
-
Ubuntu 14.04.4 64位
-
Java版"1.8.0_77"
-
Python 2.7.6
-
Spark 1.6.1 Hadoop 2.4及更高版本的预构建
有什么线索如何解决这个问题?
It works fine with Spark 1.2.0 Pre-build for Hadoop 2.4 and later
1 回答
请检查机器上是否安装了java并检查lib目录下的所有jar文件是否正常