首页 文章

在Cassandra上启用与同一节点上的Spark

提问于
浏览
0

我试图测试Spark,所以我可以总结一下我在Cassandra的一些数据 . 我已经浏览了所有的DataStax教程,他们对于如何实际启用spark非常模糊 . 我能找到的唯一指示是,在安装期间选择“Analytics”节点时会自动启用它 . 但是,我有一个现有的Cassandra节点,我不想使用不同的机器进行测试,因为我只评估笔记本电脑上的所有内容 .

Is it possible to just enable Spark on the same node and deal with any performance implications? If so how can I enable it so that it can be tested?

我在那里看到Spark的文件夹(虽然我并不肯定所有文件都存在)但是当我检查它是否设置为Spark master时,它表示没有启用任何spark节点 .

dsetool sparkmaster

我正在使用Linux Ubuntu Mint .

我有大量的数据,但我想避免为托管多台机器而付费(至少在测试时是这样) .

2 回答

相关问题