我指的是这个项目:https://github.com/amplab/spark-indexedrdd
我的问题是:
-
这仍然保持?我注意到最后一次提交是在2015年9月
-
是否有计划在Maven上添加2.11.x版本?
-
有没有计划将索引的RDD添加到Spark Core?
写这个我也意识到Spark项目使用Scala 2.10.x.有没有理由没有转向2.11?
我指的是这个项目:https://github.com/amplab/spark-indexedrdd
我的问题是:
这仍然保持?我注意到最后一次提交是在2015年9月
是否有计划在Maven上添加2.11.x版本?
有没有计划将索引的RDD添加到Spark Core?
写这个我也意识到Spark项目使用Scala 2.10.x.有没有理由没有转向2.11?
1 回答
我不相信它仍然保持,但你应该在他们的github repo上打开一个问题,直接与作者核对 .
因此,有关添加Scala 2.11支持的观点也应该在那里得到解答 .
关于spark-core集成,关于这个主题有一个JIRA discussion . 该项目似乎是作为对spark-core的拉取请求启动的,但最后,他们决定将其作为单独的包保留 .