zoukankan      html  css  js  c++  java
  • Raid

    RAID级别:raid0,raid1,raid4,raid5,raid6,raid10,raid01


    仅用于标识磁盘阵列的组合方式,不能取代数据备份,对病毒导致的数据丢失不具备预防措施
      raid0:至少需要两块磁盘,常用于/swap、/tmp,提高读写性能,没用容错能力,磁盘利用率100%
      raid1:至少需要两块磁盘,常用于镜像,硬件容错能力,读性能提升,写性能下降,磁盘利用率50%
      raid4:至少需要三块磁盘,有一块专门存储校验码,允许一块磁盘出错,读写能力提升,磁盘利用率提升,磁盘利用率(n-1)/n
      raid5:至少需要三块磁盘,同raid4但校验码存储位置随机,允许一块磁盘出错,读写能力提升,磁盘利用率(n-1)/n
      raid6:至少需要四块磁盘,比raid5多了一个校验位,共两个校验位,允许两块磁盘出错,读写能力提升,磁盘利用率(n-2)/n
      raid10:至少需要四块磁盘,允许不同组内磁盘各坏一个,读写性能提升,磁盘利用率50%
      raid01:至少需要四块磁盘,允许不同组内磁盘各坏一个,读写性能提升,磁盘利用率50%

    提升性能,可用性(容错能力)
      容错能力:raid1,raid4,raid5,raid6,raid10,raid01
      提升性能:raid0,raid4,raid5,raid6,raid10,raid01

    模式化工具:mdadm


    软Raid必须调整ID号,fd,同一个磁盘raid没意义,mdadm命令自动更新/proc/mdstat文件
      -S停止raid
      -A装配模式,用于停止raid后重新启用

    [root@ZYB ~]# mdadm -S /dev/md0
    mdadm: stopped /dev/md0
    [root@ZYB ~]# mdadm -A /dev/md0 /dev/sdb{1,2}
    mdadm: /dev/md0 has been started with 2 drives.
    

      -F用于监控raid出错信息

    [root@ZYB ~]# mdadm -F /dev/md0
    Apr  3 17:05:28: Fail on /dev/md0 /dev/sdb1
    

      -C创建模式,专用选项
        -n用于创建raid设备的个数
        -x用于热备磁盘的个数
        -l指定raid级别
        -a是否创建文件系统,-a yes自动为raid设备创建文件系统
        -c Chunk_Size指定块大小,默认512KB

    [root@ZYB ~]# mdadm -C /dev/md0 -a yes -l 0 -n 2 -x 1 /dev/sdb{1,2,3}
    mdadm: spare-devices setting is incompatible with raid level 0
    [root@ZYB ~]# mdadm -C /dev/md0 -a yes -l 1 -n 2 -x 1 /dev/sdb{1,2,3}
    mdadm: /dev/sdb1 appears to be part of a raid array:
           level=raid1 devices=2 ctime=Tue Apr  3 16:34:49 2018
    mdadm: Note: this array has metadata at the start and
        may not be suitable as a boot device.  If you plan to
        store '/boot' on this device please ensure that
        your boot-loader understands md/v1.x metadata, or use
        --metadata=0.90
    mdadm: /dev/sdb2 appears to contain an ext2fs file system
           size=1048576K  mtime=Mon Apr  2 19:56:01 2018
    mdadm: /dev/sdb2 appears to be part of a raid array:
           level=raid1 devices=2 ctime=Tue Apr  3 16:34:49 2018
    mdadm: /dev/sdb3 appears to be part of a raid array:
           level=raid6 devices=4 ctime=Tue Apr  3 16:17:42 2018
    mdadm: largest drive (/dev/sdb1) exceeds size (2095104K) by more than 1%
    Continue creating array? y
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    

        -Dor--detail显示阵列详细信息,与模式无关
      Manage管理模式专用选项
        -f模拟损坏
        -r模拟移除设备
        -a模拟添加新设备,然后有一个同步的过程

    [root@ZYB ~]# mdadm /dev/md0 -f /dev/sdb2
    mdadm: set /dev/sdb2 faulty in /dev/md0
    [root@ZYB ~]# mdadm /dev/md0 -r /dev/sdb2
    mdadm: hot removed /dev/sdb2 from /dev/md0
    [root@ZYB ~]# mdadm /dev/md0 -a /dev/sdb2
    mdadm: added /dev/sdb2
    

    [root@ZYB ~]# watch -n 0.5 cat /proc/mdstat
    每0.5秒执行一次后面命令

  • 相关阅读:
    题解[51nod1555] 布丁怪
    题解 [51nod1753] 相似子串
    题解[NOIP2017] 列队
    题解 [NOIP2015]运输计划
    题解 [APIO2014]连珠线
    题解 [ZJOI2010]基站选址
    [学习笔记] kmp
    RPC&ORM
    Spring
    常用工具
  • 原文地址:https://www.cnblogs.com/hesper/p/8709466.html
Copyright © 2011-2022 走看看