我已经在本地系统上下载了hive安装,并将hive-site.xml复制到Spark conf目录中 . 我尝试使用spark shell在Hive上下文中创建托管表 .
我在hive-site.xml中放了以下属性(存在于spark的conf目录中):
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
我也把HADOOP_HOME放在spark-env.sh中:
export HADOOP_CONF_DIR=/opt/hadoop/conf
根据Hive文档,配置单元仓库应存储在HDFS中,但仓库存储在本地驱动器(/ user / hive / warehouse)中 . 请帮助我理解为什么Hive没有在HDFS中存储仓库目录 .