我已经在Ubuntu上安装了Spark 2.1.1,无论我做什么,它似乎都不同意java路径 . 当我运行“spark-submit --version”或“spark-shell”时,我收到以下错误:
/usr/local/spark/bin/spark-class: line 71: /usr/lib/jvm/java-8-openjdk-amd64/jre/bin//bin/java: No such file or directory
现在显然“/ bin // bin / java”存在问题,但我不确定在哪里更改配置 . spark类文件包含以下行:
if [ -n "${JAVA_HOME}" ]; then
RUNNER="${JAVA_HOME}/bin/java"
我最初使用的是适用于Hadoop 2.4的Spark版本,当我将其更改为“RUNNER =”$ 时,它会给我错误“[path]是一个目录”或“[path]不是目录 . “这是在/ etc / environment中尝试多路径排列之后
我现在在/ etc / environment中拥有的是:
JAVA_HOME="/usr/lib/jvm/java-8-openjdk-amd64/jre/bin/"
这是我当前的Java设置:
r oot@ubuntu:~# update-alternatives --config java There is only one alternative in link group java (providing /usr/bin/java): /usr/lib/jvm/java-8-openjdk-amd64/jre/bin/java
bashrc具有以下内容:
export SPARK_HOME="/usr/local/spark"
export PATH="$PATH:$SPARK_HOME/bin"
任何人都可以建议:1)我需要更改哪些文件和2)我需要如何更改它们?提前致谢 .
spark类文件在链接中,以防万一:
2 回答
在/ etc / environment文件中替换
同
然后执行
也应该保持
RUNNER="${JAVA_HOME}/bin/java"
原样Windows环境:
打开
Advanced system settings -> Environment Variables
设置JAVA_HOME
路径,最常见的错误是设置JAVA文件夹的路径:而不是将其设置为JDK文件夹
这就是它对我有用的方式 .