Ceph常用命令
1、查看状态常用命令
# 集群状态 ceph -s ## 查看正在操作的动作 ceph -w # 查看已经创建的磁盘 rbd ls -l # 查看ceph集群 ceph osd tree # 查看ceph授权信息 ceph auth get client.admin # 移除monitor节点 ceph-deploy mon destroy lab1 # 详细列出集群每块磁盘的使用情况 ceph osd df
# 检查 MDS 状态:
ceph mds stat
2、RBD常用命令
# 创建pool # 若少于5个OSD, 设置pg_num为128。 # 5~10个OSD,设置pg_num为512。 # 10~50个OSD,设置pg_num为4096。 # 超过50个OSD,可以参考pgcalc计算。 ceph osd pool create rbd 128 128 rbd pool init rbd # 删除pool ceph osd pool rm rbd rbd –yes-i-really-really-mean-it ##ceph.conf 添加 ##mon_allow_pool_delete = true # 手动创建一个rbd磁盘 rbd create --image-feature layering [rbd-name] -s 10240
3、OSD常用命令
# 清除磁盘上的逻辑卷 ceph-volume lvm zap --destroy /dev/vdc # 本机操作 ceph-deploy disk zap lab4 /dev/sdb # 远程操作 # 创建osd ceph-deploy osd create lab4 --fs-type btrfs --data vg1/lvol0 ## 删除osd节点的node4 # 查看节点node4上的所有osd,比如osd.9 osd.10: ceph osd tree #查看目前cluster状态 # 把node4上的所欲osd踢出集群:(node1节点上执行) ceph osd out osd.9 ceph osd out osd.10 # 让node4上的所有osd停止工作:(node4上执行) service ceph stop osd.9 service ceph stop osd.10 # 查看node4上osd的状态是否为down,权重为0 ceph osd tree # 移除node4上的所有osd: ceph osd crush remove osd.9 ceph osd crush remove osd.10 # 删除节点node4: ceph osd crush remove ceph-node4 ## 替换一个失效的磁盘驱动 # 首先ceph osd tree 查看down掉的osd,将因磁盘问题down掉的osd及相关key删除 ceph osd out osd.0 # 都在node1节点下执行 ceph osd crush rm osd.0 ceph auth del osd.0 ceph osd rm osd.0 #zap新磁盘 清理新磁盘: ceph-deploy disk zap node1 /dev/sdb #在磁盘上新建一个osd,ceph会把它添加为osd:0: ceph-deploy --overwrite-conf osd create node1 /dev/sdb
# 清除磁盘上的逻辑卷 ceph-volume lvm zap --destroy /dev/vdc # 本机操作 ceph-deploy disk zap lab4 /dev/sdb # 远程操作 # 创建osd ceph-deploy osd create lab4 --fs-type btrfs --data vg1/lvol0 ## 删除osd节点的node4 # 查看节点node4上的所有osd,比如osd.9 osd.10: ceph osd tree #查看目前cluster状态 # 把node4上的所欲osd踢出集群:(node1节点上执行) ceph osd out osd.9 ceph osd out osd.10 # 让node4上的所有osd停止工作:(node4上执行) service ceph stop osd.9 service ceph stop osd.10 # 查看node4上osd的状态是否为down,权重为0 ceph osd tree # 移除node4上的所有osd: ceph osd crush remove osd.9 ceph osd crush remove osd.10 # 删除节点node4: ceph osd crush remove ceph-node4 ## 替换一个失效的磁盘驱动 # 首先ceph osd tree 查看down掉的osd,将因磁盘问题down掉的osd及相关key删除 ceph osd out osd.0 # 都在node1节点下执行 ceph osd crush rm osd.0 ceph auth del osd.0 ceph osd rm osd.0 #zap新磁盘 清理新磁盘: ceph-deploy disk zap node1 /dev/sdb #在磁盘上新建一个osd,ceph会把它添加为osd:0: ceph-deploy --overwrite-conf osd create node1 /dev/sdb
# 清除磁盘上的逻辑卷 ceph-volume lvm zap --destroy /dev/vdc # 本机操作 ceph-deploy disk zap lab4 /dev/sdb # 远程操作 # 创建osd ceph-deploy osd create lab4 --fs-type btrfs --data vg1/lvol0 ## 删除osd节点的node4 # 查看节点node4上的所有osd,比如osd.9 osd.10: ceph osd tree #查看目前cluster状态 # 把node4上的所欲osd踢出集群:(node1节点上执行) ceph osd out osd.9 ceph osd out osd.10 # 让node4上的所有osd停止工作:(node4上执行) service ceph stop osd.9 service ceph stop osd.10 # 查看node4上osd的状态是否为down,权重为0 ceph osd tree # 移除node4上的所有osd: ceph osd crush remove osd.9 ceph osd crush remove osd.10 # 删除节点node4: ceph osd crush remove ceph-node4 ## 替换一个失效的磁盘驱动 # 首先ceph osd tree 查看down掉的osd,将因磁盘问题down掉的osd及相关key删除 ceph osd out osd.0 # 都在node1节点下执行 ceph osd crush rm osd.0 ceph auth del osd.0 ceph osd rm osd.0 #zap新磁盘 清理新磁盘: ceph-deploy disk zap node1 /dev/sdb #在磁盘上新建一个osd,ceph会把它添加为osd:0: ceph-deploy --overwrite-conf osd create node1 /dev/sdb
# 清除磁盘上的逻辑卷 ceph-volume lvm zap --destroy /dev/vdc # 本机操作 ceph-deploy disk zap lab4 /dev/sdb # 远程操作 # 创建osd ceph-deploy osd create lab4 --fs-type btrfs --data vg1/lvol0 ## 删除osd节点的node4 # 查看节点node4上的所有osd,比如osd.9 osd.10: ceph osd tree #查看目前cluster状态 # 把node4上的所欲osd踢出集群:(node1节点上执行) ceph osd out osd.9 ceph osd out osd.10 # 让node4上的所有osd停止工作:(node4上执行) service ceph stop osd.9 service ceph stop osd.10 # 查看node4上osd的状态是否为down,权重为0 ceph osd tree # 移除node4上的所有osd: ceph osd crush remove osd.9 ceph osd crush remove osd.10 # 删除节点node4: ceph osd crush remove ceph-node4 ## 替换一个失效的磁盘驱动 # 首先ceph osd tree 查看down掉的osd,将因磁盘问题down掉的osd及相关key删除 ceph osd out osd.0 # 都在node1节点下执行 ceph osd crush rm osd.0 ceph auth del osd.0 ceph osd rm osd.0 #zap新磁盘 清理新磁盘: ceph-deploy disk zap node1 /dev/sdb #在磁盘上新建一个osd,ceph会把它添加为osd:0: ceph-deploy --overwrite-conf osd create node1 /dev/sdb