1.查找命令
bin/hadoop
2.启动两个HDFS集群
hadoop0,hadoop1,都是伪分布式的集群
3.启动hadoop3的zookeeper与hbase
注意点:需要开启yarn服务,因为distcp需要yarn。
3.在hdfs上可以看到hadoop3上有表s1.
4.官网
下面使用的情况是:不同版本的集群之间进行拷贝,建议查官网。
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
5.拷贝hadoop3上的s1到hadoop0
bin/hadoop distcp -i hftp://192.168.91.133:50070/hbase/data/default/s1 hdfs://192.168.91.130:8020/s1
使用hadoop的distcp,因为hbase底层是HDFS,所以要拷贝底层数据,后面关于表,在使用hbase的修复。
hadoop的修复可以看命令bin/hdfs。
hbase的修复命令可以看bin/hbase。
5.删除在hadoop3中的元数据
6.在hadoop3的hdfs上同样不再有数据s1
7.重新把数据从hadoop0上迁移到hadoop3上
bin/hadoop distcp -i hftp://192.168.91.130:50070/s1 hdfs://192.168.91.133:8020/hbase/data/default/s1
8.hbase中状况
9.修复元数据
bin/hbase hbck -fixAssignments -fixMeta
10.使用