首页 文章

无法从Hive / JDBC查询Spark表

提问于
浏览
0

我'm using Spark 1.3.1 from AWS EMR. I' ve使用HiveContext创建了一个火花表,可以从Hive看到这个(使用 "show tables"). 但是当我尝试查询 table(Select..), 时它会抛出以下错误:

hdfs:// IP:9000 / user / hive / warehouse / tablename / part-r-00001.parquet不是SequenceFile

当我使用“describe tablename”时,它显示:

col                     array<string>           from deserializer

“显示表”正确返回表名 .

知道为什么镶木地板文件不是Spark正在生成的顺序文件以及如何解决这个问题?我需要从Hive查询Spark表并使用来自RStudio或其他工具的JDBC连接 .

1 回答

相关问题