我已经在本地系统上下载了hive安装,并将hive-site.xml复制到Spark conf目录中 . 我尝试使用spark shell在Hive上下文中创建托管表 .

我在hive-site.xml中放了以下属性(存在于spark的conf目录中):

<property>
   <name>hive.metastore.warehouse.dir</name>
   <value>/user/hive/warehouse</value>
</property>

我也把HADOOP_HOME放在spark-env.sh中:

export HADOOP_CONF_DIR=/opt/hadoop/conf

根据Hive文档,配置单元仓库应存储在HDFS中,但仓库存储在本地驱动器(/ user / hive / warehouse)中 . 请帮助我理解为什么Hive没有在HDFS中存储仓库目录 .