hdfs管理界面:Summary部分,Configured Capacity: 0 B。正常应该不是0,而是显示系统分配给hdfs的剩余容量。
原因:NameNode的clusterID和DataNode的不一致,所以未能启动。之所以会这样,是因为我们执行了多次bin/hdfs namenode -format命令,导致NameNode的clusterID改变而DataNode却没变。有时也可能是因为data和name文件夹的权限问题。
网上解决步骤:
1 停止所有进程:sbin/stop-all.sh
2 将namenode的clusterID(在/develop/hadoop-2.7.5/hadoopDatas/namenodeDatas/current/VERSION文档中)复制到datanode的clusterID(在/develop/hadoop-2.7.5/hadoopDatas/datanodeDatas/current/VERSION文档中)
3启动所有进程 /sbin/start-all.sh
4 检验
实际操作发现还是不行;于是删除整个hadoopDatas,重新创建hadoopDatas文件夹以及下面的子文件夹,然后重新格式化bin/hdfs namenode -format,再启动各项服务,解决。
小结:
bin/hdfs namenode -format该命令仅执行一次,以后尽量不要执行,因为一执行,则所有数据都丢失!并且,导致NameNode的clusterID和DataNode的不一致,从而系统出错!