zoukankan      html  css  js  c++  java
  • 软件磁盘阵列 (Software RAID)

    什么是 RAID

    磁盘阵列全名是『 Redundant Arrays of Inexpensive Disks, RAID 』,容错式廉价磁盘阵列。 RAID 可以通过一些技术(软件或硬件),将多个较小的磁盘整合成为一个较大的磁盘设备; 而这个较大的磁盘功能可不止是储存而已,他还具有数据保护的功能呢。整个 RAID 由亍选择的等级 (level) 不同,而使得整合后的磁盘具有不同的功能, 基本常见的 level 有这几种(注1):


    RAID-0 (等量模式, stripe):效能最佳
    这种模式如果使用相同型号与容量的磁盘来组成时,效果较佳。这种模式的 RAID 会将磁盘先切出等量的区块 (举例来说, 4KB), 然后当一个文件要写入 RAID 时,该文件会依据块的大小切割好,之后再依序放到各个磁盘里面去。由于每个磁盘会交错的存放数据, 因此当你的数据要写入 RAID 时,数据会被等量的放置在各个磁盘上面。举例来说,你有两颗磁盘组成 RAID-0 , 当你有 100MB 的数据要写入时,每个磁盘会各被分配到 50MB 的储存量。RAID-0 的示意图如下所示:


    RAID-1 (映像模式, mirror):完整备份
    这种模式也是需要相同的磁盘容量的,最好是一模一样的磁盘啦!如果是不同容量的磁盘组成 RAID-1 时,那么总容量将以最小的那一颗磁盘为主!这种模式主要是『让同一份数据,完整的保存在两颗磁盘上头』。举例来说,如果我有一个 100MB 的档案,且我仅有两颗磁盘组成 RAID-1 时, 那么这两颗磁盘将会同步写入 100MB 到他们的储存空间去。 因此,整体 RAID 的容量几乎少了 50%。由于两颗硬盘内容一模一样,好像镜子映照出来一样, 所以我们也称他为 mirror(镜像) 模式。


    RAID 0+1,RAID 1+0
    RAID-0 的效能佳但是数据不安全,RAID-1 的数据安全但是效能不佳,那么能不能将这两者整合起来设置 RAID 呢? 可以啊!那就是 RAID 0+1 或 RAID 1+0。所谓的 RAID 0+1 就是: (1)先让两颗磁盘组成 RAID 0,再让这样的设置共有两组; (2)将这两组 RAID 0 再组成一组 RAID 1。这就是 RAID 0+1 啰!反过来说,RAID 1+0 就是先组成 RAID-1 再组成 RAID-0 的意思。



    RAID 5:性能与数据备份的均衡考虑
    RAID-5 至少需要三块以上的磁盘才能够组成这种类型的磁盘阵列。这种磁盘阵列的数据写入有点类似 RAID-0 , 不过每个循环的写入过程中,在每颗磁盘还加入一个同位检查数据 (Parity) ,这个数据会记录其他磁盘的备份数据, 用于当有磁盘损毁时的救援。RAID-5 读写的情况有点像底下这样:



    Spare Disk:预备磁盘的功能
    当磁盘阵列的磁盘损毁时,就得要将坏掉的磁盘拔除,然后换一颗新的磁盘。换成新磁盘并且顺利启劢磁盘阵列后, 磁盘阵列就会开始主动的重建 (rebuild) 原本坏掉的那颗磁盘数据到新的磁盘上!然后你磁盘阵列上面的数据就复原了! 这就是磁盘阵列的优点。不过,我们还是得要动手拔插硬盘,此时通常得要关机才能这么做。 为了让系统可以实时的在坏掉硬盘时主动的重建,因此就需要预备磁盘 (spare disk) 的辅助。 所谓的 spare disk 就是一颗或多颗没有包含在原本磁盘阵列等级中的磁盘,这颗磁盘平时并不会被磁盘阵列所使用, 当磁盘阵列有任何磁盘损毁时,则这颗 spare disk 会被主动的拉进磁盘阵列中,再将坏掉的那颗硬盘移出磁盘阵列! 然后立即重建数据系统。如此你的系统则可以永保安康啊!若你的磁盘阵列有支持热拔插那就更完美了! 直接将坏掉的那颗磁盘拔除换一颗新的,再将那颗新设置成为 spare disk ,就完成了!


    磁盘阵列的优点:

    说的口沫横飞,重点在哪里呢?其实你的系统如果需要磁盘阵列的话,其实重点在于:
     数据安全与可靠性:指的并非信息安全,而是的那个硬件 (指磁盘) 损毁时,数据是否还能够安全的救援或使用之意;
     读写效能:例如 RAID 0 可以加强读写效能,让你的系统 I/O 部分得以改善;
     容量:可以让多块磁盘组合起来,故单一文件系统可以有相当大的容量。
    尤其数据的可靠性与完整性更是使用 RAID 的考虑重点!毕竟硬件坏掉换掉就好了,软件数据损毁那可不是闹着玩的! 所以企业界为何需要大量的 RAID 来做为文件系统的硬件基准,现在您有点了解了吧?


    software, hardware RAID

    硬件磁盘阵列 (hardware RAID) 是透过磁盘阵列卡来达成数组的目的。 磁盘阵列卡上面有一块专门的芯片在处理 RAID 的仸务,因此在效能方面会比较好。在很多任务 (例如 RAID 5 的同位检查码计算) 磁盘阵列并不会重复消耗原本系统的 I/O 总线,理论上效能会较佳。此外目前一般的中高阶磁盘阵列卡都支持热拔插, 亦即在不关机的情况下抽换损坏的磁盘,对于系统的复原与数据的可靠性方面非常的好用。

    软件磁盘阵列 (software RAID)。软件磁盘阵列主要是透过软件来仿真数组的仸务, 因此会损耗较多的系统资源,比如说 CPU 的运算不 I/O 总线的资源等。

    另外你必项要知道的是,硬件磁盘阵列在 Linux 底下看起来就是一颗实际的大磁盘,因此硬件磁盘阵列的装置文件名为 /dev/sd[a-p] ,因为使用到 SCSI 的模坑之故。至于软件磁盘阵列则是系统仿真的,因此使用的装置文件名是系统的装置文件, 文件名为 /dev/md0, /dev/md1...,两者的装置文件名并不相同!


    软件磁盘阵列的设定:

     

    1. # mdadm --create --auto=yes /dev/md[0-9] --raid-devices=N --level=[015] --spare-devices=N /dev/sdx /dev/hdx...  
    2. 选顷不参数:   
    3. --create :为建立 RAID 的参数。  
    4. --auto=yes :决定建立后面接的软件磁盘阵列装置,亦即 /dev/md0,/dev/md1...  
    5. --raid-devices=N :使用几个磁盘 (partition) 作为磁盘阵列的装置  
    6. --spare-devices=N :使用几个磁盘作为备用 (spare) 装置  
    7. --level=[015] :设定这组磁盘阵列的等级。支持很多,不过建议只要用 0, 1, 5 即可  
    8. --detail :后面所接的那个磁盘阵列装置的详绅信息  

     

    利用我的测试机来建置一个 RAID 5 的软件磁盘阵列给您瞧瞧!

     

    1. [root@linux ~]# fdisk -l  
    2.   
    3. Disk /dev/sda: 8589 MB, 8589934592 bytes  
    4. 255 heads, 63 sectors/track, 1044 cylinders  
    5. Units = cylinders of 16065 * 512 = 8225280 bytes  
    6.   
    7.    Device Boot      Start         End      Blocks   Id  System  
    8. /dev/sda1   *           1          13      104391   83  Linux  
    9. /dev/sda2              14         274     2096482+  82  Linux swap / Solaris  
    10. /dev/sda3             275        1044     6185025   83  Linux  
    11.   
    12. Disk /dev/sdb: 8589 MB, 8589934592 bytes  
    13. 255 heads, 63 sectors/track, 1044 cylinders  
    14. Units = cylinders of 16065 * 512 = 8225280 bytes  
    15.   
    16.    Device Boot      Start         End      Blocks   Id  System  
    17.   
    18. Disk /dev/sdc: 8589 MB, 8589934592 bytes  
    19. 255 heads, 63 sectors/track, 1044 cylinders  
    20. Units = cylinders of 16065 * 512 = 8225280 bytes  
    21.   
    22.    Device Boot      Start         End      Blocks   Id  System  
    23.   
    24. Disk /dev/sdd: 8589 MB, 8589934592 bytes  
    25. 255 heads, 63 sectors/track, 1044 cylinders  
    26. Units = cylinders of 16065 * 512 = 8225280 bytes  
    27.   
    28.    Device Boot      Start         End      Blocks   Id  System  
    29.   
    30. Disk /dev/sde: 8589 MB, 8589934592 bytes  
    31. 255 heads, 63 sectors/track, 1044 cylinders  
    32. Units = cylinders of 16065 * 512 = 8225280 bytes  
    33.   
    34.    Device Boot      Start         End      Blocks   Id  System  
    35.   
    36. Disk /dev/sdf: 8589 MB, 8589934592 bytes  
    37. 255 heads, 63 sectors/track, 1044 cylinders  
    38. Units = cylinders of 16065 * 512 = 8225280 bytes  
    39.   
    40. Disk /dev/sdf doesn't contain a valid partition table  

     

    下面是我希望做成的 RAID 5 环境:
     利用 4 个磁盘组成 RAID 5;
     每个磁盘约为 8GB 大小,需确定每个磁盘一样大较佳;
     利用 1 个磁盘设定为 spare disk
     这个 spare disk 的大小与其他 RAID 所需磁盘一样大!
     将此 RAID 5 装置挂载到 /mnt/raid 目录下
    最终我需要 5 个 8GB 的磁盘。

     

    1. [root@linux ~]# mdadm --create --auto=yes /dev/md0 --level=5 --raid-devices=4 --spare-devices=1 /dev/sd{b,c,d,e,f}  
    2. mdadm: array /dev/md0 started.  
    3.   
    4. [root@linux ~]# mdadm --detail /dev/md0  
    5. /dev/md0:                                                  --RADI设备名  
    6.         Version : 0.90  
    7.   Creation Time : Thu Feb 16 19:11:44 2012                 --RAID被创建的时间  
    8.      Raid Level : raid5                                    --RAID等级为RAID 5  
    9.      Array Size : 25165632 (24.00 GiB 25.77 GB)            --此RAID的可用磁盘容量  
    10.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)               --每个设备的可用容量  
    11.    Raid Devices : 4                                        --用作RAID的设备数量  
    12.   Total Devices : 5                                        --全部设备的数量  
    13. Preferred Minor : 0  
    14.     Persistence : Superblock is persistent  
    15.   
    16.     Update Time : Thu Feb 16 19:14:22 2012  
    17.           State : clean  
    18.  Active Devices : 4                                        --启动的设备数量  
    19. Working Devices : 5                                        --可动作的设备数量  
    20.  Failed Devices : 0                                        --出现错误的设备数量  
    21.   Spare Devices : 1                                        --预备磁盘的数量  
    22.   
    23.          Layout : left-symmetric  
    24.      Chunk Size : 64K  
    25.   
    26.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b      --此设备的RAID标识符  
    27.          Events : 0.2  
    28.   
    29.     Number   Major   Minor   RaidDevice State  
    30.        0       8       16        0      active sync   /dev/sdb  
    31.        1       8       32        1      active sync   /dev/sdc  
    32.        2       8       48        2      active sync   /dev/sdd  
    33.        3       8       64        3      active sync   /dev/sde  
    34.   
    35.        4       8       80        -      spare   /dev/sdf  

     

    也可以查阅如下的档案杢看看系统软件磁盘阵列的情况:

    1. [root@linux ~]# cat /proc/mdstat  
    2. Personalities : [raid6] [raid5] [raid4]   
    3. md0 : active raid5 sde[3] sdf[4](S) sdd[2] sdc[1] sdb[0]                --第一行  
    4.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]      --第二行  
    5.         
    6. unused devices: <none>  

    第一行部分:指出 md0 为 raid5 ,丏使用了 sdb, sdc, sdd, sde 等四颗磁盘装置。每个装置后面的中括号 [] 内的数字为此磁盘在 RAID 中的顺序 (RaidDevice);至亍 sdf 后面的 [S] 则代表 sdf 为 spare 之意。

     

    第二行:此磁盘阵列拥有 25165632 个block(每个 block 单位为 1K),所以怪容量约为24GB, 使用 RAID 5 等级,写入磁盘的小区坑 (chunk) 大小为 64K,使用 algorithm 2 磁盘阵列算法。 [m/n] 代表此数组需要 m 个装置,且 n 个装置正常运作。因此本 md0 需要 4 个装置且这 4 个装置均正常运作。 后面的 [UUUU] 代表的是四个所需的装置 (就是 [m/n] 里面的 m) 的启劢情况,U 代表正常运作,若为 _ 则代表不正常。


    格式化与挂载使用RAID

     

    1. [root@linux ~]# mkfs -t ext3 /dev/md0  
    2. mke2fs 1.39 (29-May-2006)  
    3. Filesystem label=  
    4. OS type: Linux  
    5. Block size=4096 (log=2)  
    6. Fragment size=4096 (log=2)  
    7. 3145728 inodes, 6291408 blocks  
    8. 314570 blocks (5.00%) reserved for the super user  
    9. First data block=0  
    10. Maximum filesystem blocks=0  
    11. 192 block groups  
    12. 32768 blocks per group, 32768 fragments per group  
    13. 16384 inodes per group  
    14. Superblock backups stored on blocks:   
    15.         32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,   
    16.         4096000  
    17.   
    18. Writing inode tables: done                              
    19. Creating journal (32768 blocks): done  
    20. Writing superblocks and filesystem accounting information: done  
    21.   
    22. This filesystem will be automatically checked every 22 mounts or  
    23. 180 days, whichever comes first.  Use tune2fs -c or -i to override.  
    24. [root@linux ~]# mkdir /mnt/raid  
    25. [root@linux ~]# mount /dev/md0 /mnt/raid/  
    26. [root@linux ~]# df  
    27. 文件系统               1K-块        已用     可用 已用% 挂载点  
    28. /dev/sda3              5991232   2656564   3025420  47% /  
    29. /dev/sda1               101086     11373     84494  12% /boot  
    30. tmpfs                   517548         0    517548   0% /dev/shm  
    31. /dev/md0              24770748    176200  23336268   1% /mnt/raid  


    仿真 RAID 错误的救援模式

     

     

    1. # mdadm --manage /dev/md[0-9] [--add 设备] [--remove 设备] [--fail 设备]  
    2. 参数:   
    3. --add :会将后面的设备加入到这个 md 中!   
    4. --remove :会将后面的设备从这个 md 中移除   
    5. --fail :会将后面的设备设定成为出错的状态  


    设置磁盘为错误

     

     

    1. [root@linux raid]# cp -a /etc/ /var/log/ /mnt/raid/            --先复制一些数据  
    2. [root@linux raid]# df /mnt/raid/  
    3. 文件系统               1K-块        已用     可用 已用% 挂载点  
    4. /dev/md0              24770748    279932  23232536   2% /mnt/raid  
    5. [root@linux raid]# du -sm /mnt/raid/*  
    6. 106     /mnt/raid/etc                 --看吧!确实有数据在里面  
    7. 2       /mnt/raid/log  
    8. 1       /mnt/raid/lost+found  
    9. [root@linux raid]# ll /mnt/raid/  
    10. 总计 40  
    11. drwxr-xr-x 101 root root 12288 02-16 20:37 etc  
    12. drwxr-xr-x  16 root root  4096 02-16 18:24 log  
    13. drwx------   2 root root 16384 02-16 20:36 lost+found  
    14. [root@linux raid]# mdadm --manage /dev/md0 --fail /dev/sdb          --假设这个磁盘设备出错了。  
    15. mdadm: set /dev/sdb faulty in /dev/md0  
    16. [root@linux raid]# mdadm --detail /dev/md0   
    17. /dev/md0:  
    18.         Version : 0.90  
    19.   Creation Time : Thu Feb 16 19:11:44 2012  
    20.      Raid Level : raid5  
    21.      Array Size : 25165632 (24.00 GiB 25.77 GB)  
    22.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)  
    23.    Raid Devices : 4  
    24.   Total Devices : 5  
    25. Preferred Minor : 0  
    26.     Persistence : Superblock is persistent  
    27.   
    28.     Update Time : Thu Feb 16 20:51:49 2012  
    29.           State : clean, degraded, recovering  
    30.  Active Devices : 3  
    31. Working Devices : 4  
    32.  Failed Devices : 1                                      --出错的磁盘有一个  
    33.   Spare Devices : 1  
    34.   
    35.          Layout : left-symmetric  
    36.      Chunk Size : 64K  
    37.   
    38.  Rebuild Status : 16% complete  
    39.   
    40.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
    41.          Events : 0.4  
    42.   
    43.     Number   Major   Minor   RaidDevice State  
    44.        4       8       80        0      spare rebuilding   /dev/sdf  
    45.        1       8       32        1      active sync   /dev/sdc  
    46.        2       8       48        2      active sync   /dev/sdd  
    47.        3       8       64        3      active sync   /dev/sde  
    48.   
    49.        5       8       16        -      faulty spare   /dev/sdb  
    50. [root@linux raid]# cat /proc/mdstat  
    51. Personalities : [raid6] [raid5] [raid4]   
    52. md0 : active raid5 sde[3] sdf[4] sdd[2] sdc[1] sdb[5](F)  
    53.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/3] [_UUU]  
    54.       [======>..............]  recovery = 34.3% (2878256/8388544) finish=3.2min speed=28577K/sec  
    55.         
    56. unused devices: <none>  


    重建完毕的RAID 5情况

     

     

    1. [root@linux raid]# cat /proc/mdstat  
    2. Personalities : [raid6] [raid5] [raid4]   
    3. md0 : active raid5 sde[3] sdf[0] sdd[2] sdc[1] sdb[4](F)  
    4.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]  
    5.         
    6. unused devices: <none>  
    7. [root@linux raid]# mdadm --detail /dev/md0  
    8. /dev/md0:  
    9.         Version : 0.90  
    10.   Creation Time : Thu Feb 16 19:11:44 2012  
    11.      Raid Level : raid5  
    12.      Array Size : 25165632 (24.00 GiB 25.77 GB)  
    13.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)  
    14.    Raid Devices : 4  
    15.   Total Devices : 5  
    16. Preferred Minor : 0  
    17.     Persistence : Superblock is persistent  
    18.   
    19.     Update Time : Thu Feb 16 21:02:31 2012  
    20.           State : clean  
    21.  Active Devices : 4  
    22. Working Devices : 4  
    23.  Failed Devices : 1  
    24.   Spare Devices : 0  
    25.   
    26.          Layout : left-symmetric  
    27.      Chunk Size : 64K  
    28.   
    29.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
    30.          Events : 0.12  
    31.   
    32.     Number   Major   Minor   RaidDevice State  
    33.        0       8       80        0      active sync   /dev/sdf  
    34.        1       8       32        1      active sync   /dev/sdc  
    35.        2       8       48        2      active sync   /dev/sdd  
    36.        3       8       64        3      active sync   /dev/sde  
    37.   
    38.        4       8       16        -      faulty spare   /dev/sdb  


    将错误的磁盘删除并加入新磁盘

     

     

    1. [root@linux raid]# mdadm --manage /dev/md0 --remove /dev/sdb   
    2. mdadm: hot removed /dev/sdb  
    3. [root@linux raid]# cat /proc/mdstat  
    4. Personalities : [raid6] [raid5] [raid4]   
    5. md0 : active raid5 sde[3] sdf[0] sdd[2] sdc[1]  
    6.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]  
    7.         
    8. unused devices: <none>  
    9. [root@linux raid]# mdadm --detail /dev/md0  
    10. /dev/md0:  
    11.         Version : 0.90  
    12.   Creation Time : Thu Feb 16 19:11:44 2012  
    13.      Raid Level : raid5  
    14.      Array Size : 25165632 (24.00 GiB 25.77 GB)  
    15.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)  
    16.    Raid Devices : 4  
    17.   Total Devices : 4  
    18. Preferred Minor : 0  
    19.     Persistence : Superblock is persistent  
    20.   
    21.     Update Time : Thu Feb 16 21:06:32 2012  
    22.           State : clean  
    23.  Active Devices : 4  
    24. Working Devices : 4  
    25.  Failed Devices : 0  
    26.   Spare Devices : 0  
    27.   
    28.          Layout : left-symmetric  
    29.      Chunk Size : 64K  
    30.   
    31.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
    32.          Events : 0.14  
    33.   
    34.     Number   Major   Minor   RaidDevice State  
    35.        0       8       80        0      active sync   /dev/sdf  
    36.        1       8       32        1      active sync   /dev/sdc  
    37.        2       8       48        2      active sync   /dev/sdd  
    38.        3       8       64        3      active sync   /dev/sde  
    39. [root@linux raid]# mdadm --manage /dev/md0 --add /dev/sdb  
    40. mdadm: added /dev/sdb  
    41. [root@linux raid]# mdadm --detail /dev/md0  
    42. /dev/md0:  
    43.         Version : 0.90  
    44.   Creation Time : Thu Feb 16 19:11:44 2012  
    45.      Raid Level : raid5  
    46.      Array Size : 25165632 (24.00 GiB 25.77 GB)  
    47.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)  
    48.    Raid Devices : 4  
    49.   Total Devices : 5  
    50. Preferred Minor : 0  
    51.     Persistence : Superblock is persistent  
    52.   
    53.     Update Time : Thu Feb 16 21:06:32 2012  
    54.           State : clean  
    55.  Active Devices : 4  
    56. Working Devices : 5  
    57.  Failed Devices : 0  
    58.   Spare Devices : 1  
    59.   
    60.          Layout : left-symmetric  
    61.      Chunk Size : 64K  
    62.   
    63.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
    64.          Events : 0.14  
    65.   
    66.     Number   Major   Minor   RaidDevice State  
    67.        0       8       80        0      active sync   /dev/sdf  
    68.        1       8       32        1      active sync   /dev/sdc  
    69.        2       8       48        2      active sync   /dev/sdd  
    70.        3       8       64        3      active sync   /dev/sde  
    71.   
    72.        4       8       16        -      spare   /dev/sdb  
    73. [root@linux raid]# cat /proc/mdstat  
    74. Personalities : [raid6] [raid5] [raid4]   
    75. md0 : active raid5 sdb[4](S) sde[3] sdf[0] sdd[2] sdc[1]  
    76.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]  
    77.         
    78. unused devices: <none>  


    开机自动启动RAID并自动挂载

     

     

    1. [root@linux raid]# mdadm --detail /dev/md0 | grep UUID  
    2.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
    3. [root@linux raid]# vi /etc/mdadm.conf  
    4. ARRAY /dev/md0 UUID=84c5171f:50290a3e:8673f81b:4cc9501b  
    5. [root@linux raid]# vi /etc/fstab  
    6. /dev/md0                /mnt/raid               ext3    defaults        1 2  
    7. [root@linux ~]# umount /dev/md0   
    8. [root@linux ~]# df  
    9. 文件系统               1K-块        已用     可用 已用% 挂载点  
    10. /dev/sda3              5991232   2655024   3026960  47% /  
    11. /dev/sda1               101086     11373     84494  12% /boot  
    12. tmpfs                   517548         0    517548   0% /dev/shm  
    13. [root@linux ~]# mount -a                                              --参数 -a:依照配置文件 /etc/fstab 的数据将所有未挂载的磁盘都挂载上来  
    14. [root@linux ~]# df  
    15. 文件系统               1K-块        已用     可用 已用% 挂载点  
    16. /dev/sda3              5991232   2655024   3026960  47% /  
    17. /dev/sda1               101086     11373     84494  12% /boot  
    18. tmpfs                   517548         0    517548   0% /dev/shm  
    19. /dev/md0              24770748    279936  23232532   2% /mnt/raid  


    关闭软件RAID

     

    除非你未来就是要使用这颗 software RAID (/dev/md0),否则你势必要将这个 /dev/md0 关闭!如果你只是将 /dev/md0 卸除,然后忘记将 RAID 关闭, 结果就是....未来你在重新分割 /dev/sb* 时可能会出现一些莫名的错错误状况啦!

     

    1. # 1. 先卸载且删除配置文件内与这个 /dev/md0 有关的设置:   
    2. [root@linux ~]# umount /dev/md0   
    3. [root@linux ~]# vi /etc/fstab   
    4. /dev/md0 /mnt/raid ext3 defaults 1 2  --将这一行删除掉!或者是批注掉也可以!   
    5. # 2. 直接关闭 /dev/md0 的方法!   
    6. [root@linux ~]# mdadm --stop /dev/md0   
    7. mdadm: stopped /dev/md0                       --这样就关闭了!   
    8. [root@linux ~]# cat /proc/mdstat   
    9. Personalities : [raid6] [raid5] [raid4]   
    10. unused devices: <none>                          --看吧!确实不存在仸何数组设备!   
    11. [root@linux ~]# vi /etc/mdadm.conf   
    12. ARRAY /dev/md0 UUID=84c5171f:50290a3e:8673f81b:4cc9501b       --同样啦!删除他或是批注他!  
  • 相关阅读:
    一个、说到所有的扩展指标
    时序图、流程图
    流程图总结
    UML活动图与流程图的区别
    类图与对象图
    app的描述-软件的描述
    UML的目标
    软件建模的用途
    Android中如何使用Intent在Activity之间传递对象[使用Serializable或者Parcelable]
    Serializable 和 Parcelable 区别
  • 原文地址:https://www.cnblogs.com/zlingh/p/3913448.html
Copyright © 2011-2022 走看看