分布式Ceph存储集群集换硬件(磁盘)设备

分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
先上几张图展示下目前Ceph存储的大体情况,模拟更换服务器CLIENT3上数据硬盘,ceph存储设备已经有存放数据,观察更换过程及恢复变化。
[root@client3 ~]# systemctl stop ceph-osd@2.service
分布式Ceph存储集群集换硬件(磁盘)设备
[root@client3 ~]# umount /var/lib/ceph/osd/ceph-2
分布式Ceph存储集群集换硬件(磁盘)设备

[root@client3 ~]# ceph osd out osd.2
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
[root@client3 ~]# ceph auth del osd.2
分布式Ceph存储集群集换硬件(磁盘)设备
[root@client3 ~]# ceph osd rm 2
分布式Ceph存储集群集换硬件(磁盘)设备
清空磁盘信息:
[root@client3 ~]# wipefs -af /dev/sdb
分布式Ceph存储集群集换硬件(磁盘)设备
磁盘变化:(删除旧磁盘,更换新盘,虚拟机中删除后原50G硬盘,重新添加一个80G硬盘。
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
此时集群状态
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
原硬盘50G更换后为80G
分布式Ceph存储集群集换硬件(磁盘)设备
[root@master ~]# cd /data/idc-cluster/
[root@master idc-cluster]# ceph-deploy osd prepare client3:/dev/sdb
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
存储空间也变大了(原来为135G,更改硬盘后存储空间为165G)。
分布式Ceph存储集群集换硬件(磁盘)设备
数据依然存在,无变化。
CEPH集群恢复中:
[root@BDDB cephfs]# ceph health
分布式Ceph存储集群集换硬件(磁盘)设备
分布式Ceph存储集群集换硬件(磁盘)设备
恢复完成:[root@BDDB cephfs]# ceph health
分布式Ceph存储集群集换硬件(磁盘)设备

上一篇:kubernetes 集群机器重启后磁盘盘符变化


下一篇:Ceph存储实战 - 文件存储