我为hadoop 2.4下载了预制的spark 1.2.1 . 然后我尝试使用./bin/spark-shell启动spark shell,我收到以下错误消息:
无法在/ Users / XXXX / Software Libraries / Java Libraries / General / spark-1.2.1-bin-hadoop2.4 / lib中找到Spark程序集您需要在运行此程序之前构建Spark .
即使我下载了预建版本,为什么无法使用此错误启动?
尽管看起来很奇怪,但进入我的主目录可以解决问题 . 也许与我的目录名称中有空格的事实有关,但我无法确定 .
build / mvn -Pyarn -Phadoop-2.4 -Dhadoop.version = 2.4.0 -DskipTests clean package
2 回答
尽管看起来很奇怪,但进入我的主目录可以解决问题 . 也许与我的目录名称中有空格的事实有关,但我无法确定 .
build / mvn -Pyarn -Phadoop-2.4 -Dhadoop.version = 2.4.0 -DskipTests clean package