友声网

 找回密码
 立即注册
搜索
开启左侧

[Linux] RAID 0、1、5、1+0总结

[复制链接]
卡卡北 发表于 2019-1-10 16:57 | 显示全部楼层 |阅读模式
RAID(Redundant Array Of Independent Disk,独立磁盘冗余阵列),可以提供比普通磁盘更快的速度、更高的安全性,生产环境中服务器在安装时一般都会做RAID,RAID的创建有两种方式,一种是软RAID(由操作系统来实现,生产环境下一般不采用,因为是基于系统,所以一旦系统挂掉了,数据就挂了),另一种是硬RAID(使用的是RAID卡,也叫阵列卡等的一种独立于系统之外的卡,当系统挂掉之后可以保证磁盘数据的安全性)。

RAID 0:(String 条带模式)

要求:至少需要两块磁盘

优点:数据分散存储于不同磁盘上,在读写时可以实现并发,是所有RAID级别中存储性能最高的;磁盘利用率100%;

缺点:没有容错功能,一旦其中一块磁盘挂掉全部数据将都会顺坏

1.jpg

RAID 1:(Mirroring 镜像卷)

2.jpg

要求:至少需要两块磁盘

优点:用过硬盘镜像数据实现数据冗余,保证数据的安全性,在两块盘上互为备份,当原始数据繁忙时,可以直接从镜像备份中读取数据;

缺点:是RAID级别中单位成本最高的,当其中一块磁盘挂掉时,系统可以直接切换到镜像盘上读写,并且不需要重组失效的数据,磁盘利用率50%;

RAID 5原理:数据以块为单位分散存储在各个硬盘上,RAID 5不对数据进行备份,而是把数据和与其对应的奇偶校验信息存储到组成的RAID5的各个磁盘上,并且将奇偶校验信息和对应的数据分别存储于不同的磁盘上,其中一块(只允许一块)挂掉时,利用剩下的数据和校验信息可以恢复数据。

3.jpg

上表中的A、B值即代表不同的位,利用异或运算可以简单算出挂掉磁盘上的数据。

要求:需要3块及以上硬盘

优势:兼顾读写速度和数据安全,其中一块磁盘挂掉时,可以保证数据不被损坏;(需要注意的是,只允许坏一块盘,并且坏盘要及时更换)

磁盘利用率=[(n-1)/n] * 2/3

RAID 1+0:

先创建RAID 1,在RAID的基础上创建RAID 0

优点:数据安全性好,只要不是一个RAID 1上的2个硬盘同时损坏,都不影响数据的正常读写,数据恢复快

缺点:写性能较RAID 0+1 差一些

RAID 0+1

先创建RAID 0,在RAID 0 的基础上再创建RAID 1

优点:性能上考虑的话,RAID 0+1要更有优势一些,RAID 0+1写入速度更快一些,读取速度和RAID 1+0 一样,

缺点:一旦其中一块硬盘挂掉之后,一半的硬盘无法正常工作,如果2个条带上各坏一块,整个阵列将挂掉

实例 1

创建RAID 0(基于系统的软RAID)

1.新加8块硬盘(虚拟机中)

brw-rw---- 1 root disk 8,  16 Sep 22 12:04 /dev/sdb
brw-rw---- 1 root disk 8,  17 Sep 22 12:04 /dev/sdb1
brw-rw---- 1 root disk 8,  32 Sep 22 12:05 /dev/sdc
brw-rw---- 1 root disk 8,  33 Sep 22 12:05 /dev/sdc1
brw-rw---- 1 root disk 8,  48 Sep 22 12:06 /dev/sdd
brw-rw---- 1 root disk 8,  49 Sep 22 12:06 /dev/sdd1
brw-rw---- 1 root disk 8,  64 Sep 22 09:57 /dev/sde
brw-rw---- 1 root disk 8,  80 Sep 22 09:57 /dev/sdf
brw-rw---- 1 root disk 8,  96 Sep 22 09:57 /dev/sdg
brw-rw---- 1 root disk 8, 112 Sep 22 09:57 /dev/sdh
brw-rw---- 1 root disk 8, 128 Sep 22 09:57 /dev/sdi

2.使用mdadm命令创建

-C或--creat
建立一个新阵列
-r
移除设备
-A
激活磁盘阵列
-l 或--level=
设定磁盘阵列的级别
-D或--detail
打印阵列设备的详细信息
-n或--raid-devices=
指定阵列成员(分区/磁盘)的数量
-s或--scan
扫描配置文件或/proc/mdstat得到阵列缺失信息
-x或--spare-devicds=
指定阵列中备用盘的数量
-f
将设备状态定为故障
-c或--chunk=
设定阵列的块chunk大小 ,单位为KB
-a或--add
添加设备到阵列
-G或--grow
改变阵列大小或形态
-v
--verbose 显示详细信息

[root@sishen ~]# mdadm -C -v /dev/md0 -l 0 -n 2  /dev/sd{b,c}
mdadm: chunk size defaults to 512K
mdadm: /dev/sdb appears to be part of a raid array:
    level=raid0 devices=0 ctime=Thu Jan  1 08:00:00 1970
mdadm: partition table exists on /dev/sdb but will be lost or
       meaningless after creating array
mdadm: /dev/sdc appears to be part of a raid array:
    level=raid0 devices=0 ctime=Thu Jan  1 08:00:00 1970
mdadm: partition table exists on /dev/sdc but will be lost or
       meaningless after creating array
Continue creating array?y      
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@sishen ~]# cat /proc/mdstat       #查看阵列信息
Personalities : [raid0]
md0 : active raid0 sdc[1] sdb[0]
    41942016 blocks super 1.2 512k chunks      
unused devices: <none>
[root@sishen ~]# mdadm -D /dev/md0
3.生成配置文件
[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf
[root@sishen ~]# cat !$
cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=sishen.163.cn:0 UUID=b4192d7e:3d23d5fd:8cb8d61e:4368d38d
4.创建分区
[root@sishen ~]# parted /dev/md0
GNU Parted 2.1
Using /dev/md0
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p
Model: Unknown (unknown)
Disk /dev/md0: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number  Start   End     Size    File system  Name     Flags
1      1049kB  19.9GB  19.9GB               primary
(parted) mkpart primary 19.9G 39.9G
(parted) p
(parted) mklabel gpt
(parted) mkpart primary 0G 19.9G
(parted) p
Model: Unknown (unknown)
Disk /dev/md0: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number  Start   End     Size    File system  Name     Flags
1      1049kB  19.9GB  19.9GB               primary
(parted) mkpart primary 19.9G 39.9G
(parted) p
Model: Unknown (unknown)
Disk /dev/md0: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number  Start   End     Size    File system  Name     Flags
1      1049kB  19.9GB  19.9GB               primary
2      19.9GB  39.9GB  20.0GB               primary
(parted)
5.格式化
[root@sishen ~]# mkfs.ext4 /dev/md0p1
[root@sishen ~]# mkfs.ext4 /dev/md0p2
6.挂载使用
[root@sishen ~]# mkdir /md01           #创建挂载点
[root@sishen ~]# mkdir /md02         
[root@sishen ~]# mount /dev/md0p1 /md01/      #挂载
[root@sishen ~]# mount /dev/md0p2 /md02/
[root@sishen ~]# df -h
Filesystem      Size  Used Avail Use% Mounted on
…….
/dev/md0p1       19G  172M   18G   1% /md01
/dev/md0p2       19G  172M   18G   1% /md02
可以使用如下方式实现永久挂载
1)编辑/etc/fstab文件添加如下两行
[root@sishen ~]# vim /etc/fstab
/dev/md0p1     ext4   defaults 0 0 /md01
/dev/md0p2     ext4  defaults 0 0 /md02
2)通过UUID方式挂载
[root@sishen ~]# blkid /dev/md0p1    #获取UUID
/dev/md0p1: UUID="2c9c107a-9150-43bf-ad7a-fdc6c32b828c" TYPE="ext4"
[root@sishen ~]# blkid /dev/md0p2
/dev/md0p2: UUID="1a3f8a8a-b9e6-4669-9949-7c2bec36fee2" TYPE="ext4"
同样编辑1)中的文件添加如下两行
UUID=2c9c107a-9150-43bf-ad7a-fdc6c32b828c /md0p1  ext4  defaults        0 0
UUID=1a3f8a8a-b9e6-4669-9949-7c2bec36fee2 /md0p2  ext4  defaults        0 0
实例2   创建RAID1
1.同样准备硬盘
2.开始创建
[root@sishen ~]# mdadm -C -v /dev/md1 -l 1 -n 2 -x 1 /dev/sd{d,e,f}
[root@sishen ~]# cat /proc//mdstat
//查看阵列信息
sonalities : [raid0] [raid1]
md1 : active raid1 sdf[2](S) sde[1] sdd[0]
      20955008 blocks super 1.2 [2/2] [UU]
      [=====>...............]  resync = 28.6% (6000000/20955008) finish=1.1min speed=206896K/sec
      
md0 : active raid0 sdc[1] sdb[0]
      41942016 blocks super 1.2 512k chunks
      
unused devices: <none>
[root@sishen ~]# mdadm -D /dev/md1
//查看详细信息
3.创建配置文件
[root@sishen ~]# mdadm -Ds >> /etc/mdadm.conf
4.创建挂载点、分区、格式化、挂载使用
[root@sishen ~]# mkdir /md1
[root@sishen ~]# parted /dev/md1
[root@sishen ~]# mkfs.ext4 /dev/md1p1
[root@sishen ~]# mount /dev/md1p1 /md1/
[root@sishen ~]# df -h
Filesystem      Size  Used Avail Use% Mounted on
……….
/dev/md1p1       19G  172M   18G   1% /md1
5.查看状态信息
[root@sishen ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid1 sdf[2](S) sde[1] sdd[0]
      20955008 blocks super 1.2 [2/2] [UU]
md0 : active raid0 sdc[1] sdb[0]
      41942016 blocks super 1.2 512k chunks

     
unused devices: <none>
#md1:表示此阵列的设备名
#active:正常读写
#raid 1:raid级别
#sdf[2][S]:为此阵列的第三个设备且是热备盘,sde[1]此阵列第二个设备,sdc[0]此阵列的第一个设备
#20955008 blocks:此阵列的块大小,
#[2/2]此阵列中有2个磁盘,并且都在运行
动态查看使用
[root@sishen ~]# watch -n 1 cat /proc/mdstat
配置文件介绍
[root@sishen ~]# cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=sishen.163.cn:0 UUID=b4192d7e:3d23d5fd:8cb8d61e:4368d38d
ARRAY /dev/md0 metadata=1.2 name=sishen.163.cn:0 UUID=b4192d7e:3d23d5fd:8cb8d61e:4368d38d
ARRAY /dev/md1 metadata=1.2 spares=1 name=sishen.163.cn:1 UUID=8a5d9559:dd72a74d:6b72f9aa:45bd2b86
#spares=1:有一块热备盘
手动设置故障盘
[root@sishen ~]# mdadm -f /dev/md1 /dev/sdd
mdadm: set /dev/sdd faulty in /dev/md1
移除故障盘
[root@sishen ~]# mdadm -r /dev/md1 /dev/sdd
mdadm: hot removed /dev/sdd from /dev/md1
查看状态
[root@sishen ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid1 sdf[2] sde[1]
      20955008 blocks super 1.2 [2/1] [_U]
      [======>..............]  recovery = 33.9% (7117952/20955008) finish=1.1min speed=200000K/sec
      //正在同步数据
md0 : active raid0 sdc[1] sdb[0]
      41942016 blocks super 1.2 512k chunks
      
unused devices: <none>
重新生成配置文件
[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf
实例3 创建RAID5
1.准备分区
[root@sishen ~]# ls /dev/sdg*
/dev/sdg   /dev/sdg2  /dev/sdg4  /dev/sdg6  /dev/sdg8
/dev/sdg1  /dev/sdg3  /dev/sdg5  /dev/sdg7  /dev/sdg9
2.开始创建
[root@sishen ~]# mdadm -C -v /dev/md5 -l 5 -n 6 -c 32 -x 2 /dev/sdg{1,2,3,5,6,7,8,9}
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: size set to 1059200K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
3.生成配置文件
[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf
后续步骤同上;
实例4       停止/激活阵列
[root@sishen ~]# mdadm -S /dev/md5
mdadm: stopped /dev/md5
[root@sishen ~]# mdadm –As
//激活所有阵列
mdadm: /dev/md1 is already in use.
mdadm: /dev/md5 has been started with 6 drives and 2 spares.
mdadm: /dev/md1 is already in use.
为阵列添加一块新硬盘
[root@sishen ~]# mdadm -a /dev/md5 /dev/sdg10
mdadm: added /dev/sdg10
#如果阵列在停止状态下,则可能无法添加新硬盘
改变阵列大小
[root@sishen ~]# mdadm --grow /dev/md5 --array-size 264800

重新生成配置文件
[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf
创建RAID 1+0
方法是在raid1的基础上创建raid0
首先创建2个raid 1
[root@sishen ~]# mdadm -C -v /dev/md11 -l 1 -n 2 /dev/sd{b,c}
[root@sishen ~]# mdadm -C -v /dev/md12 -l 1 -n 2 /dev/sd{d,e}
然后在raid1上面创建raid 0
[root@sishen ~]# mdadm -C -v /dev/md0 -l 0 -n 2 /dev/md1{1,2}
生成配置文件
[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf
使用和上述操作一样
关闭所有RAID
[root@sishen ~]# mdadm -Ss
mdadm: stopped /dev/md1
mdadm: stopped /dev/md0
删除RAID
先停止阵列,再卸载,然后删除配置文件
最后清除物理磁盘中的RAID标识
[root@sishen ~]# mdadm --misc --zero-superblock /dev/sd{b,c,d,e,f}
[root@sishen ~]# mdadm --misc --zero-superblock /dev/sdg{2,3,5,6,7,8,9,10}
#--misc 修改MD相关的信息
#--zero-superblock 擦除设备中的超级块
若有问题后续会更新!!!点滴记录!重在积累!
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|小黑屋|RSS|联系|友声网 ( 鲁ICP备15020090号 ) 知道创宇云安全

GMT+8, 2019-7-22 09:54 , Processed in 0.120117 second(s), 18 queries , MemCache On.

Powered by Discuz! X

©2019 Comsenz Inc.

快速回复 返回顶部 返回列表