我们的集群运行时有2个核心节点,dfs容量很小,需要增加 .

我向核心节点实例添加了一个500GB的新卷,并将其挂载到/ mnt1并更新了主节点和核心节点中的hdfs-site.xml .

<property>
    <name>dfs.datanode.dir</name>
    <value>/mnt/hdfs,/mnt/hdfs1</value>
  </property>

然后我重新启动了hadoop-hdfs-namenode和hadoop-hdfs-datanode服务 . 但由于新卷,datanode正在关闭 .

2018-06-19 11:25:05,484 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode(DataNode:[[[DISK] file:/ mnt / hdfs /,[DISK] file:/ mnt / hdfs1 ]]心跳到ip-10-60-12-232.ap-south-1.compute.internal / 10.60.12.232:8020):块池(Datanode Uuid未分配)服务初始化失败到ip-10-60-12 -232.ap - 南1.compute.internal / 10.60.12.232:8020 . 退出 . org.apache.hadoop.util.DiskChecker $ DiskErrorException:失败的卷太多 - 当前有效卷:1,已配置卷:2,卷失败:1,容忍卷容错:0

在搜索时,我看到人们建议格式化namenode,以便将blockpool id分配给两个卷 . 我该如何解决这个问题?