raid磁盘阵列概述
RAID 将一组硬盘连结成来,组成一个阵列,以避免单个硬盘损坏而带来的数据损失, 同时亦提供了比单个硬盘高的可用性及容错性。
raid 0
概念:两个或多个硬盘组成一个逻辑硬盘,并行写操作,写入速度提高
缺点:没有容错,一旦一个物理硬盘损坏,则所有数据均丢失
raid 1
概念:最少由两个硬盘组成,且两个硬盘上存储的数据均相同,读操作速度有所提高
缺点:利用率则是最低,只有 50%,因而成本也是最高
raid 5
概念:最少由三个硬盘组成,还伴有一个数据校验位,当丢失其中的一位时,RAID 控制器能通过算法,利用其它两位数据将丢失的数据进行计算还原 (N-1)/N
raid 6
概念:RAID6 是在 RAID5 的基础上改良而成的,将数据校验位增加一位,允许损坏的硬盘数量也由RAID5 的一个增加到二个 (N-2)
raid 0+1
概念:先将数据进行镜像操作,然后再对数据进行分组,至少要四块盘,两块做 raid0,另两块做raid1,RAID 10 对存储容量的利用率和 RAID 1 一样低,只有 50%.
优缺点:Raid1+0 方案造成了 50%的磁盘浪费,但是它提供了 200%的速度和单磁盘损坏的数据安全性,并且当同时损坏的磁盘不在同一 Raid1 中,就能保证数据安全性
raid 1+0
概念:先进行raid 1 操作,然后在raid 1 基础上进行raid 0操作
阵列卡
阵列卡介绍: 阵列卡的全称叫磁盘阵列卡 是用来做 RAID 的,是一种把若干硬磁盘驱动器按照一定要求组成一个整体,整个磁盘阵列由阵列控制器管理的系统
raid卡接口类型: IDE 接口、SCSI 接口、SATA 接口和 SAS 接口
阵列卡缓存: 是 RAID 卡与外部总线交换数据的场所,RAID 卡先将数据传送到缓存, 再由缓存和外边数据总线交换数据。
RAID的实现方式
硬raid
需要raid卡,磁盘接在raid卡上,有自己的cpu,处理速度快,从硬件的层面上处理
然后开机进行raid配置,然后装系统
但是不同厂商的raid卡配置会不一样
软raid
mdadm是multiple devices admin的简称,它是Linux下的一款标准的软件 RAID 管理工具
mdadm管理工具,最小化默认不安装,需要yum安装
mdadm是一个用于创建、管理、监控RAID设备的工具,它使用linux中的md驱动。
mdadm程序是一个独立的程序,能完成所有软件RAID的管理功能,主要有7中使用模式。、
/proc/mdstat : 当前md(软RAID)的状态信息
/etc/mdadm.conf : mdadm的配置文件
配置代码
mdadm -C 创建 -v 显示详情 /dev/md0 -l 级别 0(RAID 0) -n 2(硬盘数) /dev/sd[b-c]
mdadm -D /dev/ma0 查看
cat /etc/mdadm.conf 查看当前状态
mdad -Ds(扫描)v /dev/md0 > /etc/mdadm.conf
mdadm /dev/md0 -f /dev/sdb 破坏硬盘
mdadm -S /dev/md0 /dev/sdb 停止
mdadm -As 停止时激活
mdadm -a /dev/md0 /dev/sdc 添加sdc到md0中
mdadm -C 创建 -v 显示详情 /dev/md0 -l 级别 0(RAID 0) -n 2(硬盘数) -x (热备盘)/dev/sd[b-c]
watch -n 0.5 'mdadm -D /dev/md5' |tail 0.5秒实时监控
mdadm --zero-superblock /dev/sdc 彻底删除sdc
配置RAID0
[root@localhost ~]# mdadm -C -v /dev/md0 -l0 -n2 /dev/sd[c-d]
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue May 11 01:14:19 2021
Raid Level : raid0
Array Size : 41908224 (39.97 GiB 42.91 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Tue May 11 01:14:19 2021
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Consistency Policy : none
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : 23c6baba:31f656ff:2d2b5a74:7b4246bd
Events : 0
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
RAID1的配置
mdadm -C -v /dev/md0 -l1 -n2 /dev/sd[c-d]
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue May 11 01:29:44 2021
Raid Level : raid1
Array Size : 20954112 (19.98 GiB 21.46 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Tue May 11 01:29:50 2021
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 24% complete
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : ae63e1c3:52f9a6bf:4edb9a91:2627ba06
Events : 3
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
RAID5的配置
mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[c-e]
[root@localhost ~]# mdadm -D /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Mon May 10 18:57:45 2021
Raid Level : raid5
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Mon May 10 19:01:18 2021
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : localhost.localdomain:5 (local to host localhost.localdomain)
UUID : d6d82a59:acfaf511:f75aeb8d:bbfcd864
Events : 18
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
3 8 48 2 active sync /dev/sdd