使用spark 1.6.0通过thrift连接远程不同Kerberized集群中的hive表

我有一个场景,使用spark 1.6.0使用hivecontext.sql()连接远程集群中的两个不同的hive表?

我有cloudera env,其中整个集群Auth机制是Kerboros,需要使用spark的解决方案我应该连接到两个不同的远程环境(DEV-UAT,DEV-PRD,UAT-SIT)?

已经在Stackoverflow中提到了很多例子并尝试了很多样本,但直到现在还没有解决方案?

欢迎所有建议! - 享受大数据编码

回答(0)