我昨晚启动了集群,几乎没有问题 . 45分钟后,它进行了日志滚动,然后集群开始抛出JVM等待错误 . 从那时起,群集将不会重新启动 . 启动时,资源管理器尚未启动 .

服务器名称节点和数据节点也是脱机的 .

我在服务器上安装了两个hadoop 2.8,删除了第一个并重新安装了第二个,对文件进行了调整以重新启动它 .

崩溃时出现的错误日志似乎是Java Stack over flow,超出范围,日志中保存的内存大小不断增加 . 我的期望是我在一些地方错误配置了内存 . 我去删除并重新格式化名称节点,我得到相同的分段错误 . 此时不知道该怎么做 .

Ubuntu-Mate 16.04,Hadoop 2.8,Spark for Hadoop 2.7,NFS,Scalia,...

当我开始纱线时,我收到以下错误信息

hduser @ nodeserver:/opt/hadoop-2.8.0/sbin$须藤./start-yarn.sh开始纱线守护程序开始的ResourceManager,记录到/opt/hadoop-2.8.0/logs/yarn-root->resourcemanager- nodeserver.out /opt/hadoop-2.8.0/sbin/yarn-daemon.sh:行103:5337分割>故障nohup的不错-n $ YARN_NICENESS “$ HADOOP_YARN_HOME”/斌/纱 - >设置$ YARN_CONF_DIR $命令“ $ @“>”$ log“2>&1 </ dev / null node1:启动nodemanager,登录到/opt/hadoop-2.8.0/logs/yarn->root-nodemanager-node1.out node3:启动nodemanager,logging到/opt/hadoop-2.8.0/logs/yarn->root-nodemanager-node3.out节点2:启动节点管理器,登录到/opt/hadoop-2.8.0/logs/yarn->root-nodemanager-node2.out开始访问代理服务器,记录到/opt/hadoop-2.8.0/logs/yarn-root->proxyserver-nodeserver.out /opt/hadoop-2.8.0/sbin/yarn-daemon.sh:线103:5424分割>故障nohup的漂亮-n $ YARN_NICENESS “$ HADOOP_YARN_HOME”/斌/纱 - >设置$ $ YARN_CONF_DIR命令 “$ @”> “$日志” 2>&1 <的/ dev /空hduser @ nodeserver:/opt/hadoop-2.8 . 0 / sbin目录$

编辑以添加更多错误输出以获取帮助

>hduser@nodeserver:/opt/hadoop-2.8.0/sbin$ jps

分段错误

>hduser@nodeserver:/opt/hadoop-2.8.0/bin$ sudo ./hdfs namenode -format

分段错误

看似显示Java堆栈的日志变得疯狂,并从512k扩展到5056k . 那么,如何重置他们的堆栈?

堆:def新一代总计5056K,使用1300K [0x35c00000,0x36170000,> 0x4a950000]伊甸园空间4544K,28%使用[0x35c00000,0x35d43b60,0x36070000]从空间512K,1%使用[0x360f0000,0x360f1870,0x36170000]到空间512K ,0%使用[0x36070000,0x36070000,0x360f0000]终身代总计10944K,使用9507K [0x4a950000,0x4b400000,> 0x74400000)空间10944K,86%使用[0x4a950000,0x4b298eb8,0x4b299000,0x4b400000] Metaspace使用18051K,容量18267K,承诺18476K,>保留18736K

24小时后更新,我已尝试完全重新安装Java和Hadoop,但仍然没有运气 . 当我尝试java -version时,我仍然会遇到分段错误 .

出现我有一个堆栈溢出,并没有简单的解决方案 . 使用干净的软件更容易重新开始并重建群集 .