首页 文章

intellij想法与scala错误:import org.apache.spark . {SparkContext,SparkConf}

提问于
浏览
0

我正在使用带有scala集成的intelli j idea(如eclipse),我创建了一个scala sbt项目,我使用spark 1.4.0和scala 2.11.6,我收到错误:import org.apache.spark . {SparkContext,SparkConf }

文件buid.sbt包含以下代码:

name:=“简单”

版本:=“1.0”

scalaVersion:=“2.11.6”

libraryDependencies =“org.apache.spark”%“spark-core_2.10”%“1.4.0”

当我使用maven来构建java应用程序我没有问题只是问题是当我尝试使用intellij构建sbt构建scala应用程序时

3 回答

  • 0

    你的scala版本和spark scala版本是错误的 . 改变你的火花依赖:

    libraryDependencies += "org.apache.spark" %% "spark-core" % "1.4.0"
    
  • 1

    您不能将spark-core_2.10与scala版本2.11.6一起使用 .

    2.10和2.11不是二进制兼容的 .

    你可能想要spark-core_2.11

  • 0

    也许你需要阅读这个:https://github.com/mpeltonen/sbt-idea . 你需要在config plugins.sbt和build.sbt之后运行sbt gen-idea

相关问题