在设置历史服务器和配置单元服务器时,webHDFS在REST API中给出以下错误 .
curl -sS -L -w '%{http_code}' -X PUT -T /usr/hdp/2.3.4.0-3485/hadoop/mapreduce.tar.gz 'http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444'
{“RemoteException”:{“exception”:“IOException”,“javaClassName”:“java.io.IOException”,“message”:“无法找到datanode,建议检查群集运行状况 . ” }} 403
2 回答
用户hdfs检查群集状态
hdfs dfsadmin -report
我遇到了同样的问题,报告显示数据节点不在线 . 最后,我不得不将节点添加到/ etc / hosts文件中 . 在您的情况下,这可能是另一个原因,重要的是数据节点必须启动并且可以到达 .
我对HDP2.5也有同样的问题 . Mapreduce报告相同的错误和Ambari显示0/3 Datanodes存活,即使它也显示所有3个Datanode已启动 .
对我来说,原因是DNS .
我的机器有中央DNS服务器,所以起初我没有在/ etc / hosts文件中添加ip / host对,部署后,Mapreduce服务器无法启动 .
然后我在每台机器上的/ etc / hosts文件中添加所有机器ip / host paris,然后重启HDFS . 问题得到解决 .