首页 文章

WebHDFS在Hortonworks中出错

提问于
浏览
0

在设置历史服务器和配置单元服务器时,webHDFS在REST API中给出以下错误 .

curl -sS -L -w '%{http_code}' -X PUT -T /usr/hdp/2.3.4.0-3485/hadoop/mapreduce.tar.gz 'http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444'

{“RemoteException”:{“exception”:“IOException”,“javaClassName”:“java.io.IOException”,“message”:“无法找到datanode,建议检查群集运行状况 . ” }} 403

2 回答

  • 0

    用户hdfs检查群集状态

    hdfs dfsadmin -report

    我遇到了同样的问题,报告显示数据节点不在线 . 最后,我不得不将节点添加到/ etc / hosts文件中 . 在您的情况下,这可能是另一个原因,重要的是数据节点必须启动并且可以到达 .

  • 0

    我对HDP2.5也有同样的问题 . Mapreduce报告相同的错误和Ambari显示0/3 Datanodes存活,即使它也显示所有3个Datanode已启动 .

    对我来说,原因是DNS .

    我的机器有中央DNS服务器,所以起初我没有在/ etc / hosts文件中添加ip / host对,部署后,Mapreduce服务器无法启动 .

    然后我在每台机器上的/ etc / hosts文件中添加所有机器ip / host paris,然后重启HDFS . 问题得到解决 .

相关问题