1.备份TETST111
hbase org.apache.hadoop.hbase.mapreduce.Export TEST111 /do1/hh
2.drop 掉test111表 -- 只能drop,不能delete -- 坑
3.重新创建表
create table test111 (id varchar, firstname varchar, lastname varchar CONSTRAINT PK PRIMARY KEY (id,firstname));
4.查看hadoop文件系统
hdfs dfs -ls /do2/
5.导入被drop的表
hbase org.apache.hadoop.hbase.mapreduce.Import TEST111 /do1/hh
--------------------------------------------------------------------------------------------恢复表
4.2 把备份的表拷进Hadoop文件系统
hdfs dfs -put NS1.GROUPCHAT_Monday/ /tmp0909/
hdfs dfs -ls /tmp0909/
4.3 把Hadoop文件系统的表导进hbase里
hbase org.apache.hadoop.hbase.mapreduce.Import NS1.GROUPCHAT /tmp0909/NS1.GROUPCHAT_Monday
5.在phoenix就进phoenix查看数据,在hbase shell 就进hbase shell查看数据
--------------------------------------------------------------------------------------------
1.一个activemaster,1个standbymaster
配置backup master的方式是在hbase的conf下增加文件backup-masters,在该文件里面增加backup master的机器列表,每台机器一条记录。
[cdh4@ecmserver conf]$ cat backup-masters
server86
server87
重启集群,server88(主)的master进程启动了,
参考: https://www.iteye.com/blog/xmaster-1930271
------------------------------------------------------------
表大小:hdfs dfs -du -h /opt/hbase/data/default/ + hdfs dfs -du -h /hbase/data/default/