1、破坏mbr表并修复
(1)备份MBR分区表并将其传到局域网中其它主机上
[root@centos8 ~]#dd if=/dev/sda of=/data/dpt.img bs=1 count=512
[root@centos8 ~]#scp /data/dpt.img 10.0.0.205:/data/dpt.img
(2) 破坏MBR分区表
[root@centos8 ~]#dd if=/dev/zero of=/dev/sda bs=1 count=64 seek=446
(3) 重启后无法正常启动
[root@centos8 ~]#reboot
(4) 用光盘启动,进入rescue mode,选第3项skip to shell
(5) 配置网络,使其能联通放有备份文件的主机
ifconfig ens33 10.0.0.8/24
或者ip a a 10.0.0.8/24 dev/ens33
(6) 下载备份文件
scp 10.0.0.205:/data/dpt.img .
(7) 恢复MBR分区表
dd if=dpt.img of=/dev/sda bs=1 seek=446 skip=446
(8)reboot重启服务器
2、总结raid的各个级别及其组合方式和性能的不同
3、创建一个2G的文件系统,块大小为2048byte,预留1%可用空间,文件系统ext4,卷标为TEST,要求此分区开机后自动挂载至/test目录,且默认有acl挂载选项
(1) 生成一个2G的文件
dd if=/dev/zero of=f1.img bs=1M count=2048
(2) 创建文件系统
mkfs -t ext4 -L ‘TEST‘ -b 2048 -m 1 f1.img
(3) 设置自动挂载
创建/test目录
编辑/etc/fstab文件,在末尾增加一行
/root/f1.img /test ext4 acl 0 0
4、创建一个至少由两个PV组成的大小为20G的名为testvg的VG;要求PE大小为16M,而后在卷组中创建大小为5G的逻辑卷testlv;挂载至/users目录
(0) 预备使用/dev/sdc硬盘和/dev/sdd1分区来作为PV
[root@CentOS8 /]#lsblk /dev/sdc /dev/sdd
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdc 8:32 0 2G 0 disk
sdd 8:48 0 25G 0 disk
└─sdd1 8:49 0 18G 0 part
(1) 修改/dev/sdd1 分区类型为Linux LVM
fdisk /dev/sdd
(2) 创建PV
[root@CentOS8 /]#pvcreate /dev/sdc /dev/sdd1
Physical volume "/dev/sdc" successfully created.
Physical volume "/dev/sdd1" successfully created.
[root@CentOS8 /]#pvs
PV VG Fmt Attr PSize PFree
/dev/sdc lvm2 --- 2.00g 2.00g
/dev/sdd1 lvm2 --- 18.00g 18.00g
(3) 创建vg,并指定PE大小
[root@CentOS8 /]#vgcreate -s 16 testvg /dev/sdc /dev/sdd1
Volume group "testvg" successfully created
[root@CentOS8 /]#vgs
VG #PV #LV #SN Attr VSize VFree
testvg 2 0 0 wz--n- <19.97g <19.97g
[root@CentOS8 /]#vgdisplay
--- Volume group ---
VG Name testvg
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size <19.97 GiB
PE Size 16.00 MiB
Total PE 1278
Alloc PE / Size 0 / 0
Free PE / Size 1278 / <19.97 GiB
VG UUID udOdjO-t5S8-hQ4Z-LY04-cXkI-pvZf-IdqTnt
(4) 创建逻辑卷
[root@CentOS8 /]#lvcreate -n testlv -L 5G testvg
Logical volume "testlv" created.
[root@CentOS8 /]#lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
testlv testvg -wi-a----- 5.00g
(5) 在lv上创建文件系统
mkfs.ext4 /dev/testvg/testlv
(6) 挂载
创建/users挂载目录
挂载时使用lv的UUID进行挂载
testlv的UUID通过lsblk来查看
[root@CentOS8 /]#lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT
sda
├─sda1 ext4 a9dd4304-10b4-406f-ae22-60b057ab5ed1 /boot
├─sda2 xfs c118d0ca-baf4-4214-bcfb-8654ccd6f621 /
├─sda3 xfs 1b9de971-02bc-4d09-b0e2-e8bac1381a1b /data
├─sda4
└─sda5 swap dccc2061-fa46-4763-bf18-c07149d2298e [SWAP]
sdb
├─sdb1
├─sdb2
└─sdb3
sdc LVM2_member oycUXT-Wc7z-b2Q2-UQYr-cqHm-rrpF-7QCc5U
sdd
└─sdd1 LVM2_member 3q2Sv0-itDk-5T8b-Xg5w-xnOd-3Bkq-tfJ2Ax
└─testvg-testlv ext4 15e834be-1870-4f23-b2c2-e28c6ffe52ee /users
sr0 iso9660 CentOS-8-2-2004-x86_64-dvd 2020-06-08-22-08-25-00
[root@CentOS8 /]#mount -U ‘15e834be-1870-4f23-b2c2-e28c6ffe52ee‘ /users
[root@CentOS8 /]#df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 953M 0 953M 0% /dev
tmpfs 981M 0 981M 0% /dev/shm
tmpfs 981M 9.1M 971M 1% /run
tmpfs 981M 0 981M 0% /sys/fs/cgroup
/dev/sda2 10G 4.7G 5.3G 47% /
/dev/sda3 5.0G 99M 4.9G 2% /data
/dev/sda1 976M 174M 736M 20% /boot
tmpfs 197M 4.0K 196M 1% /run/user/0
/dev/mapper/testvg-testlv 4.9G 20M 4.6G 1% /users
Linux学习--第七周