hadoop两个namenode都是standby问题

1、修改配置文件后重启hdfs集群,出现了两个namenode都是standby的问题。

经过不断地排查,发现在自己进行关闭和重启namenode的组件的时候,没有通过pip文件正常关闭,只能挨个关闭,这个也不是重点。

经过修改pip文件的路径,解决了这个批量关闭启动的问题,原因是/tmpe目录系统会定期清理,导致进程号对不上了。

批量启动的时候发现zkfc一直启动不了,手动启动,还是没解决问题。

尝试重新格式化zookeeper上的namenode信息。关闭再启动hdfs集群,注意zkfc的启动状态,这样成功了。

2、hbase上的一个表获取hdfs上的数据块失败,主要也是由于自己新增了datanode,有两个没启动,手动启动一下,问题还是没解决。

执行hbase检查命令,还是那个表的region找不到。直接强制删除表,这样zookeeper上的meat信息都会删掉,再重新建表,问题解决。

上一篇:搭建RAC到单实例DG


下一篇:matlab2014中GUI之多菜单的控件重叠显示问题