openstack虚拟机内文件遭破坏的急救方案

一、场景:

    openstack虚拟机存放于ceph存储,由于用户将系统的grub误删除,导致系统无法正常引导。现在用户要求抢救文件。

二、可行的方案:

    1、将虚拟机保存为镜像,将镜像转换成云硬盘,将云硬盘挂载到其他虚拟机上镜像抢救。

        优点:依赖默认的dashboard就能完成操作,较为简单,不需要openstack命令行基础;

        缺点:只能抢救文件,不能修复原系统。

    2、将ceph中 虚拟机对应的rbd映射到到本地,挂载为本机的一个目录,进行抢救工作

       优点:可以直接修复原虚拟机的系统;

       缺点:需要一定的openstack命令行技能。

三、修复经过

    本文主要介绍 第二种的修复方法

    (一)、找出虚拟机对应的rbd

      1、查找虚拟机的宿主机

1
<span style="font-size:14px;">nova show a7584a2f-7b37-4a21-ae2f-3f244da49686 |grep hypervisor<br data-filtered="filtered">| OS-EXT-SRV-ATTR:hypervisor_hostname  | server-85.105.nanshu.polex.io<br data-filtered="filtered"></span>

        2、关闭该虚拟机、

 

1
<span style="font-size:14px;"> nova stop a7584a2f-7b37-4a21-ae2f-3f244da49686<br data-filtered="filtered"></span>


        3、登陆宿主机,查看xml文件  

1
<span style="font-size:14px;">ps -ef |grep a7584a2f-7b37-4a21-ae2f-3f244da49686<br data-filtered="filtered">qemu      67511      1 17 14:17 ?        00:17:32 /usr/libexec/qemu-kvm -name instance-0000444a -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb=off -cpu Broadwell,+abm,+pdpe1gb,+rdrand,+f16c,+osxsave,+dca,+pdcm,+xtpr,+tm2,+est,+smx,+vmx,+ds_cpl,+monitor,+dtes64,+pbe,+tm,+ht,+ss,+acpi,+ds,+vme,+rtm,+hle -m 1024 -realtime mlock=off -smp 1,sockets=1,cores=1,threads=1 -uuid a7584a2f-7b37-4a21-ae2f-3f244da49686 -smbios type=1,manufacturer=Fedora Project,product=OpenStack Nova,version=13.1.2-1.el7.centos,serial=8153ba5c-de78-47c7-bc4c-c86b0d429f75,uuid=a7584a2f-7b37-4a21-ae2f-3f244da49686,family=Virtual Machine -no-user-config -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/domain-instance-0000444a/monitor.sock,server,nowait -mon chardev=charmonitor,id=monitor,mode=control -rtc base=utc,driftfix=slew -global kvm-pit.lost_tick_policy=discard -no-hpet -no-shutdown -boot strict=on -device piix3-usb-uhci,id=usb,bus=pci.0,addr=0x1.0x2 -device virtio-serial-pci,id=virtio-serial0,bus=pci.0,addr=0x4 -drive file=rbd:pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk:id=admin:key=AQAG1vlXEVDPIhAAyi0tZ3qZwt1HewbQHh731A==:auth_supported=cephx\;none:mon_host=10.48.106.247\:6789\;10.48.106.248\:6789\;10.48.106.249\:6789\;10.48.106.250\:6789\;10.48.106.251\:6789,if=none,id=drive-virtio-disk0,format=raw,cache=writeback,bps_rd=104857600,bps_wr=31457280,iops_rd=2000,iops_wr=500 -device virtio-blk-pci,scsi=off,bus=pci.0,addr=0x5,drive=drive-virtio-disk0,id=virtio-disk0,bootindex=1 -drive file=rbd:pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da4968_disk.config:id=admin:key=AQAG1vlXEVDPIhAAyi0tZ3qZwt1HewbQHh731A==:auth_supported=cephx\;none:mon_host=10.48.106.247\:6789\;10.48.106.248\:6789\;10.48.106.249\:6789\;10.48.106.250\:6789\;10.48.106.251\:6789,if=none,id=drive-ide0-1-1,readonly=on,format=raw,cache=writeback,bps_rd=104857600,bps_wr=31457280,iops_rd=2000,iops_wr=500 -device ide-cd,bus=ide.1,unit=1,drive=drive-ide0-1-1,id=ide0-1-1 -netdev tap,fd=32,id=hostnet0,vhost=on,vhostfd=34 -device virtio-net-pci,netdev=hostnet0,id=net0,mac=fa:16:3e:4d:5e:ad,bus=pci.0,addr=0x3 -chardev file,id=charserial0,path=/var/lib/nova/instances/a7584a2f-7b37-4a21-ae2f-3f244da49686/console.log -device isa-serial,chardev=charserial0,id=serial0 -chardev pty,id=charserial1 -device isa-serial,chardev=charserial1,id=serial1 -chardev socket,id=charchannel0,path=/var/lib/libvirt/qemu/org.qemu.guest_agent.0.instance-0000444a.sock,server,nowait -device virtserialport,bus=virtio-serial0.0,nr=1,chardev=charchannel0,id=channel0,name=org.qemu.guest_agent.0 -device usb-tablet,id=input0 -vnc 0.0.0.0:5 -k en-us -vga cirrus -incoming fd:25 -device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x6 -msg timestamp=on<br data-filtered="filtered"> <br data-filtered="filtered">  <br data-filtered="filtered">  <br data-filtered="filtered">cat /run/libvirt/qemu/instance-0000444a.xml |grep rbd<br data-filtered="filtered">        <source protocol='rbd' name='pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk'><br data-filtered="filtered">        <source protocol='rbd' name='pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk.config'><br data-filtered="filtered"></span>

可以看到 虚拟机对应是ceph中 叫 pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk 的 rbd

   4 挂载 rbd到本地的/dev/rbd0

1
<span style="font-size:14px;">rbd map pool-3aae4178cb8a470aab3dfcea9307e5c9/a7584a2f-7b37-4a21-ae2f-3f244da49686_disk <br data-filtered="filtered"/dev/rbd0<br data-filtered="filtered"></span>


5、 挂载本地的/dev/rbd0 到 目录

   虚拟机是以raw格式的虚拟磁盘存放在ceph中,在挂在时候要计算偏移量,

  偏移量计算 参考文章 http://smilejay.com/2012/08/mount-an-image-file/

 

 

1
<span style="font-size:14px;">mount -o offset=<br data-filtered="filtered">1048576<br data-filtered="filtered"> <br data-filtered="filtered">/dev/rbd0 /mnt<br data-filtered="filtered"></span>

 

至此 虚拟机的硬盘已经变成了我们节点上的一个目录,可以进去修复文件了。

6 撤退工作

 

 

   
1
<span style="font-size:14px;"> <br data-filtered="filtered">umount /mnt    rbd unmap /dev/rbd0<br data-filtered="filtered"></span>

 

四、需要注意的地方

    1、虚拟机一定要关机,不然文件系统在两处同时挂载的话会产生脏数据

    2、偏移量的计算

    3、快速迭代的虚拟机还是不要使用lvm



本文转自 superbigsea 51CTO博客,原文链接:http://blog.51cto.com/superbigsea/1947192

上一篇:android mipmap分辨率


下一篇:通过/etc/fstab自动挂载iso镜像的ISO格式问题