我使用Eclipse for Scala IDE开发Spark应用程序 . 我正在使用Maven项目,但当我尝试 import sparkcon 时:
import org.apache.spark.SparkConf
我有错误:
object apache不是包org的成员你可以帮我设置spark dependanancy吗?
您需要将Spark依赖项放在pom.xml文件中 . 截至目前,最新版本的Spark可以通过以下方式获得:
<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.10</artifactId> <version>2.2.0</version> </dependency>
在pom.xml中的依赖项中 .
请查看教程
https://sparktutorials.github.io/2015/04/02/setting-up-a-spark-project-with-maven.html
在线教程
https://www.youtube.com/watch?v=4sO-VgqHLp4
2 回答
您需要将Spark依赖项放在pom.xml文件中 . 截至目前,最新版本的Spark可以通过以下方式获得:
在pom.xml中的依赖项中 .
请查看教程
https://sparktutorials.github.io/2015/04/02/setting-up-a-spark-project-with-maven.html
在线教程
https://www.youtube.com/watch?v=4sO-VgqHLp4