我尝试在我的64位Windwos 7机器上安装Apache Spark .
我用了指南 -
这就是我做的 -
-
安装Scala Set环境变量SCALA_HOME并将%SCALA_HOME%\ bin添加到路径结果:scala命令适用于命令提示符
-
解压缩预先构建的Spark Set环境变量SPARK_HOME并将%SPARK_HOME%\ bin添加到Path
-
下载winutils.exe在C:/ hadoop / bin下放置winutils.exe设置环境变量HADOOP_HOME并将%HADOOP_HOME%\ bin添加到Path
我已经安装了JDK 8 .
现在,问题是,当我从C:/spark-2.1.1-bin-hadoop2.7/bin运行spark-shell时,我得到了这个 -
"C:\Program Files\Java\jdk1.8.0_131\bin\java" -cp "C:\spark-2.1.1-bin-hadoop2.7\conf\;C:\spark-2.1.1-bin-hadoop2.7\jars\*" "-Dscala.usejavacp=true" -Xmx1g org spark.repl.Main --name "Spark shell" spark-shell
这是一个错误吗?难道我做错了什么?
谢谢!