raid --磁盘阵列
RAID分为软RAID和硬RAID
如果cpu比较空闲,并且I/O比较慢的话,那么就比较适合使用软RAID
基本级别
0 1 5
0级别:
至少有两块硬盘,条带化,即把磁盘分散开,
写性能 高
读性能 高
冗余性 无
可用容量 100%
1级别:
磁盘数 2或者2n
写性能 低
读性能 低 只有第一块盘不能读了,才去第二块盘上读
冗余性 有
可用容量 50%
5 级别: 分布式奇偶校验冗余阵列
磁盘数 至少3块
写性能 低
读性能 高
冗余性 有 但是同一时间内只能坏一块
可用容量 n-1
10 级别
            ----------R0---------
              |                   |
         -----R1-----       -----R1-----
         |            |        |           |
        ---         ---     ---        ---
        |   |        |   |    |   |       |   |
		---         ----    ---        ----
  磁盘数 	至少4块
  写性能    高
  读性能	高
  冗余性	1/3的冗余性
  可用容量  50%做RAID的磁盘最好容量都是一样的,转数也是一样的
RAID应用
web应用→ RAID 5
读高,写低
数据库应用-->RAID 10
读高,写高,要备份
mdadm
-C --create 创建
-D --detail 详细信息
-s --scan 扫描
-v --verbose 扩展信息
-l --level 磁盘阵列的级别,1 0 5 10
-n --raid-devices 磁盘设备个数
fdisk /dev/sda n +1G t 5 fd ...
创建raid1
            
            
              bash
              
              
            
          
          mdadm -Cv /dev/md0 -l1 -n2 /dev/sda7 /dev/sda8	--创建一个raid1
mkfs.ext4/dev/md0	--格式化
cat /proc/mdstat	--查看本机上所磁盘阵列的状态
mdadm -D -s /dev/md0	--相看指定设备状态信息
mount /dev/md0 /mnt	--挂载
mdadm /dev/md0 -f /dev/sda7	--模拟故障,把sda7弄坏,测试数据是否还能访问
mdadm /dev/md0 -r /dev/sda7	--剔除sda7
mdadm /dev/md0 -a /dev/sda9	--加入sda9
            
            
              bash
              
              
            
          
          [root@demo ~]# cat /proc/mdstat 	--可以看到sda8向sda9同步数据。
Personalities : [raid1] 
md0 : active raid1 sda9[2] sda8[1]
      987840 blocks [2/1] [_U]
      [=>...................]  recovery =  5.8% (57664/987840) finish=0.2min speed=57664K/sec1.mdadm -D -s > /etc/mdadm.conf --将配置保存至文件,下次开机时md0才会有效
            
            
              bash
              
              
            
          
          cat /etc/mdadm.conf 
ARRAY /dev/md0 metadata=1.2 name=demo.example.com:0 UUID=f8df64cc:5fa34330:968308ea:969c5d88
/etc/init.d/mdmonitor start                           
chkconfig mdmonitor --level 2345 on2 . vim /etc/fstab
            
            
              bash
              
              
            
          
          /dev/md0                /mnt/raid1              ext4    defaults        0 0删除raid:
            
            
              bash
              
              
            
          
          umount /mnt
mdadm -S /dev/md0 		--停掉raid设备
mdadm: stopped /dev/md0
mdadm --zero-superblock /dev/sda[6-7]	--清空对应设备超级块
> /etc/mdadm.conf 	--清空配置
/etc/init.d/mdmonitor stop
Killing mdmonitor: c                                       [确定]
chkconfig mdmonitor --level 2345 off创建raid5
            
            
              bash
              
              
            
          
          mdadm --create /dev/md0 --level 5 -n 3  /dev/sda[5-7]
mkfs.ext4 /dev/md0	--格式化
cat /proc/mdstat	--查看本机上所磁盘阵列的状态
mdadm -D -s /dev/md0	--相看指定设备状态信息
mount /dev/md0 /mnt	--挂载
df -h |grep mnt
/dev/md0              395M   11M  364M   3% /mnt
mdadm /dev/md0 -f /dev/sda7	--模拟故障,把sda7弄坏,测试数据是否还能访问
mdadm /dev/md0 -r /dev/sda7	--剔除sda7
mdadm /dev/md0 -a /dev/sda9	--加入sda9
            
            
              bash
              
              
            
          
          [root@demo ~]# cat /proc/mdstat 	--同步数据。
[root@instructor ~]# mdadm /dev/md0 -a /dev/sda10
[root@instructor ~]# cat /proc/mdstat 
Personalities : [raid1] 
md0 : active raid1 sda10[2] sda9[1]
      1059222 blocks super 1.2 [2/1] [_U]
      [>....................]  recovery =  4.7% (50624/1059222) finish=0.3min speed=50624K/sec 
unused devices: <none>