首页 文章

Spark Cassandra迭代查询

提问于
浏览
1

我通过Spark Cassandra Connector应用以下内容:

val links = sc.textFile("linksIDs.txt")
links.map( link_id => 
{ 
val link_speed_records = sc.cassandraTable[Double]("freeway","records").select("speed").where("link_id=?",link_id)
average = link_speed_records.mean().toDouble
})

我想问一下是否有办法更有效地应用上述查询序列,因为我总是改变的唯一参数是'link_id' .

'link_id'值是我的Cassandra'记录'表的唯一分区键 . 我正在使用Cassandra v.2.0.13,Spark v.1.2.1和Spark-Cassandra Connector v.1.2.1

我在想是否有可能打开一个Cassandra Session来应用这些查询并仍然将'link_speed_records'作为SparkRDD .

1 回答

相关问题