Hadoop集群出现no data node to stop的解决方案

问题描述:

今天stop hadoop集群的时候出现no datanode to stop ,寻找解决方案,并不是网上资料所说的什么DFS Used 、Non DFS Used等于0 、所有的节点都是可用的。大概是因为格式化文件系统(命令:hadoop namenode -fromat )的时候,namenode产生的新的namespacelID与datanode所持有的namespaceID不一致导致的问题。

解决方案:

1.写一个脚本,利用ssh自动远程登录,删除所有集群中的dfs.data.dir(这个文件夹所在的地址是自己在配置的)文件夹下的/data/

2.重新格式化文件系统hadoop namenode -format

重启集群OK,错误消失。

上一篇:Ubuntu下搭建WordPress环境


下一篇:Python爬虫(十八)_多线程糗事百科案例