zoukankan      html  css  js  c++  java
  • udev规则,部署Multipath

                                                             部署Multipath多路径环境

    1. 配置iSCSI服务
    2. 编写udev规则
    3. 配置并访问NFS共享
    4. 部署Multipath多路径环境

    1 配置iSCSI服务

    1.1 问题

    本案例要求先搭建好一台iSCSI服务器,并将整个磁盘共享给客户端:

    • 虚拟机添加新的磁盘
    • 将新添加的磁盘分区并创建两个逻辑卷
    • 逻辑卷名称分别为:/dev/myvg/iscsi1和/dev/myvg/iscsi2
    • 服务器通过配置文件与命令两种方式共享逻辑卷

    然后客户机挂载iSCSI服务器共享的磁盘:

    • 客户端使用命令探测服务器共享的iSCSI磁盘
    • 客户端挂载iSCSI磁盘
    • 分区并格式化

    1.2 方案

    使用2台RHEL6虚拟机,其中一台作为iSCSI服务器(192.168.4.5)、另外一台作为测试用的Linux客户机(192.168.4.205),如图-1所示。

    -1

    RHEL6系统中,默认通过scsi-target-utils软件包提供iSCSI服务,因此需要在服务端安装scsi-target-utils包并配置对应的服务,iSCSI服务主要配置选项如表-1所示。

                                                                                   

    表-1 iSCSI配置选项列表

     

    客户端挂载iSCSI服务器:

    • 客户端需要安装iscsi-initiator-utils软件包
    • 客户端使用命令挂载后需要分区、格式化并进行挂载测试

    1.3 步骤

    实现此案例需要按照如下步骤进行。

    步骤一:安装iSCSI服务器软件

    1)使用yum安装scsi-target-utils软件包

    1. [root@svr5 ~]# yum  -y  install  scsi-target-utils
    2. .. ..
    3. [root@svr5 ~]# rpm  -q  scsi-target-utils
    4. scsi-target-utils-1.0.24-10.el6.x86_64

    2)启用target服务,并设为开机自动运行

    1. [root@svr5 ~]# service  tgtd  start  ;  chkconfig  tgtd  on
    2. Starting SCSI target daemon:                               [  OK  ]

    tgtd服务默认通过TCP 3260端口监听客户端请求:

    1. [root@svr5 ~]# netstat  -anptu  |  grep tgtd
    2. tcp        0      0 0.0.0.0:3260    0.0.0.0:*    LISTEN      2737/tgtd

    步骤二:创建逻辑卷

    1)为新建磁盘/dev/sdb创建分区

    1. [root@svr5 ~]# parted /dev/sdb mklabel gpt
    2. [root@svr5 ~]# parted /dev/sdb mkpart primary 1 1000
    3. [root@svr5 ~]# parted /dev/sdb mkpart primary 1000 2000

    2)创建逻辑卷

    1. [root@svr5 ~]# pvcreate /dev/sdb{1,2}
    2. [root@svr5 ~]# vgcreate myvg /dev/sdb{1,2}
    3. [root@svr5 ~]# lvcreate -n iscsi1 –L 800M myvg
    4. [root@svr5 ~]# lvcreate -n iscsi2 –L 800M myvg
    5. [root@svr5 ~]# lvscan

    步骤三:通过命令行配置iSCSI服务

    1)创建target

    1. [root@svr5 ~]# tgtadm --lld iscsi --op new --mode  
    2. > target --tid 1 -T iqn.2015-04.com.tarena.www:iscsi1

    2)为target导入本地磁盘

    1. [root@svr5 ~]# tgtadm --lld iscsi --op new --mode  
    2. >logicalunit  --tid 1 --lun 1 -b /dev/myvg/iscsi1

    3)配置ACL

    1. [root@svr5 ~]# tgtadm --lld iscsi --op bind --mode
    2. > target --tid 1 -I 192.168.4.0/24

    4)将以上三条命令加入开机启动文件

    1. [root@svr5 ~]# vim /etc/rc.local
    2. .. ..
    3. tgtadm --lld iscsi --op new --mode target --tid 1 -T iqn.2015-04.com.tarena.www:iscsi1
    4. tgtadm --lld iscsi --op new --mode logicalunit  --tid 1 --lun 1 -b /dev/myvg/iscsi1
    5. tgtadm --lld iscsi --op bind --mode target --tid 1 -I 192.168.4.0/24

    步骤四:通过配置文件实现iSCSI服务

    1)修改配置文件

    1. [root@svr5 ~]# vim /etc/tgt/targets.conf
    2. <target  iqn.2015-04.com.tarena.www:iscsi2 >
    3. # List of files to export as LUNs
    4. backing-store /dev/myvg/iscsi2            //定义存储设备
    5. initiator-address 192.168.4.0/24        //定义ACL
    6. </target>

    2)重启计算机,验证服务是否开机有效

    1. [root@svr5 ~]# reboot

    步骤五:客户端访问

    1)客户端安装软件

    1. [root@pc205 ~]# yum -y install iscsi-initiator-utils

    2)客户端探测服务器共享

    1. [root@pc205 ~]# iscsiadm -m discovery -t sendtargets -p 192.168.4.5:3260

    3)客户端挂载iSCSI共享

    1. [root@pc205 ~]# iscsiadm -m node -T  
    2. >iqn.2015-04.com.tarena.www:iscsi1
    3. >-p 192.168.4.5:3260 –l
    4. [root@pc205 ~]# iscsiadm -m node -T  
    5. >iqn.2015-04.com.tarena.www:iscsi2
    6. >-p 192.168.4.5:3260 –l

    4)分区、格式化、挂载

    1. [root@pc205 ~]# fdisk –cul                //查看挂载的iSCSI共享盘
    2. [root@pc205 ~]# parted /dev/sdb mklabel gpt
    3. [root@pc205 ~]# parted /dev/sdb mkpart primary 1 800
    4. [root@pc205 ~]# parted /dev/sdc mklabel gpt
    5. [root@pc205 ~]# parted /dev/sdc mkpart primary 1 800
    6. [root@pc205 ~]# mount /dev/sdb1  /mnt

     

     编写udev规则

    2.1 问题

    编写udev规则,实现以下目标:

    1. 当插入一个U盘时,该U盘自动出现一个链接称为udisk
    2. U盘上的第1个分区名称为udisk1,以此类推
    3. 终端上出现提示”udisk plugged in”

    2.2 方案

    对于Linux kernel 2.6及更新的操作系统版本udev是系统的设备管理器,udev会分析sysfs的数据,并根据自己的udev规则,实现如下功能:

    • 处理设备命名
    • 决定要创建哪些设备文件或链接
    • 决定如何设置属性
    • 决定触发哪些事件

    udev默认规则存放在/etc/udev/rules.d目录下,通过修改次目录下的规则实现设备的命名、属性、链接文件等。

    Udev规则文件,常见指令操作符如表-2所示。

    表-2 udev常见指令操作符

     

    udev常用替代变量:

    • %k:内核所识别出来的设备名,如sdb1
    • %n:设备的内核编号,如sda3中的3
    • %p:设备路径,如/sys/block/sdb/sdb1
    • %%:%符号本身

    2.3 步骤

    实现此案例需要按照如下步骤进行。

    步骤一:编写udev规则

    1)查看设备属性

    代码

    2)编写udev规则文件

    1. [root@svr5 ~]# vim  /etc/udev/rules.d/70-usb.rules
    2. SUBSYSTEM=="block",ENV{DEVTYPE}="disk",KERNEL=="sdb",ENV{ID_VENDOR}=="TOSHIBA",SYMLINK="udisk",RUN+="/usr/bin/wall udisk plugged in"
    3. SUBSYSTEM=="block",ACTION=="add",KERNEL=="sdb[0-9]",ENV{ID_VENDOR_ID}=="0930",ENV{DEVTYPE}=="partition",NAME="udisk%n" 

    步骤二:添加设备测试结果

    点击VMware“虚拟机“菜单,在”可移动设备“菜单下,找到自己的U盘设备,点击”连接“与”断开“,测试自己的udev规则是否成功。


     

    配置并访问NFS共享

    3.1 问题

    利用NFS机制发布2个共享目录,要求如下:

    • 将目录/root共享给客户机192.168.4.205,客户机的root用户有权限写入
    • /usr/src目录共享给192.168.4.0/24网段,只开放读取权限

    从客户机访问NFS共享:

    • 分别查询/挂载上述NFS共享目录
    • 查看挂载点目录,并测试是否有写入权限
    • 为访问NFS共享目录 /usr/src 配置触发挂载,挂载点为 /misc/nfsdir

    3.2 方案

    使用2台RHEL6虚拟机,其中一台作为NFS共享服务器(192.168.4.5)、另外一台作为测试用的Linux客户机(192.168.4.205),如图-2所示。

    -2

    NFS共享的配置文件:/etc/exports 。

    配置记录格式:文件夹路径 客户地址1(控制参数.. ..) 客户地址2(.. ..) 。

    3.3 步骤

    实现此案例需要按照如下步骤进行。

    步骤一:配置NFS服务器,发布指定的共享

    1)确认服务端程序、准备共享目录

    软件包nfs-utils用来提供NFS共享服务及相关工具,而软件包rpcbind用来提供RPC协议的支持,这两个包在RHEL6系统中一般都是默认安装的:

    1. [root@svr5 ~]# rpm  -q  nfs-utils  rpcbind
    2. nfs-utils-1.2.3-39.el6.x86_64
    3. rpcbind-0.2.0-11.el6.x86_64

    根据本例的要求,需要作为NFS共享发布的有/root、/usr/src这两个目录:

    1. [root@svr5 ~]# ls  -ld  /root  /usr/src/
    2. dr-xr-x---. 35 root root 4096 1  15 18:52 /root
    3. drwxrwxr-x+  4 root root 4096 1  15 17:35 /usr/src/

    2)修改/etc/exports文件,添加共享目录设置

    默认情况下,来自NFS客户端的root用户会被降权,若要保留其root权限,注意应添加no_root_squash控制参数;另外,限制只读的参数为ro、可读可写为rw,相关配置操作如下所示:

    1. [root@svr5 ~]# vim  /etc/exports
    2. /root           192.168.4.205(rw,no_root_squash)
    3. /usr/src        192.168.4.0/24(ro)

    3)启动NFS共享相关服务,确认共享列表

    依次启动rpcbiind、nfs服务:

    1. [root@svr5 ~]# service  rpcbind  restart  ;  chkconfig  rpcbind  on
    2. 停止 rpcbind:                                       [确定]
    3. 正在启动 rpcbind:                                    [确定]
    4. [root@svr5 ~]# service  nfs  restart  ;  chkconfig  nfs  on
    5. .. ..
    6. 启动 NFS 服务:                                     [确定]
    7. 关掉 NFS 配额:                                     [确定]
    8. 启动 NFS mountd:                                    [确定]
    9. 启动 NFS 守护进程:                                   [确定]
    10. 正在启动 RPC idmapd:                                [确定]

    使用showmount命令查看本机发布的NFS共享列表:

    1. [root@svr5 ~]# showmount  -e  localhost
    2. Export list for localhost:
    3. /usr/src 192.168.4.0/24
    4. /root    192.168.4.205

    步骤二:从客户机访问NFS共享

    1)启用NFS共享支持服务

    客户机访问NFS共享也需要rpcbind服务的支持,需确保此服务已开启:

    1. [root@pc205 ~]# service  rpcbind  restart  ;  chkconfig  rpcbind  on
    2. 停止 rpcbind:                                      [确定]
    3. 正在启动 rpcbind:                                    [确定]

    2)查看服务器提供的NFS共享列表

    1. [root@pc205 ~]# showmount  -e  192.168.4.5
    2. Export list for 192.168.4.5:
    3. /usr/src 192.168.4.0/24
    4. /root    192.168.4.205

    3)从客户机192.168.4.205访问两个NFS共享,并验证权限

    将远程的NFS共享/root挂载到本地的/root5文件夹,并验证可读可写:

    1. [root@pc205 ~]# mkdir  /root5                          //建立挂载点
    2. [root@pc205 ~]# mount  192.168.4.5:/root  /root5          //挂载NFS共享目录
    3. [root@pc205 ~]# df  -hT  /root5                          //确认挂载结果
    4. Filesystem        Type  Size  Used Avail Use% Mounted on
    5. 192.168.4.5:/root nfs    50G   15G   33G  31% /root5
    6. [root@pc205 ~]# cd  /root5                              //切换到挂载点
    7. [root@pc205 root5]# echo "NFS Write Test" >  pc205.txt     //测试写入文件
    8. [root@pc205 root5]# cat pc205.txt                      //测试查看文件
    9. NFS Write Test

    将远程的NFS共享/usr/src挂载到本地的/mnt/nfsdir,并验证只读:

    1. [root@pc205 ~]# mkdir  /mnt/nfsdir                      //建立挂载点
    2. [root@pc205 ~]# mount  192.168.4.5:/usr/src  /mnt/nfsdir/      //挂载NFS共享目录
    3. [root@pc205 ~]# df  -hT  /mnt/nfsdir/                          //确认挂载结果
    4. Filesystem           Type  Size  Used Avail Use% Mounted on
    5. 192.168.4.5:/usr/src nfs    50G   15G   33G  31% /mnt/nfsdir
    6. [root@pc205 ~]# cd  /mnt/nfsdir/                          //切换到挂载点
    7. [root@pc205 nfsdir]# ls                                  //读取目录列表
    8. debug  install.log  kernels  test.txt
    9. [root@pc205 nfsdir]# echo  "Write Test."  >  pc205.txt  //尝试写入文件失败
    10. -bash: pc205.txt: 只读文件系统

    !!!! 如果从未授权的客户机访问NFS共享,将会被拒绝。比如从NFS服务器本机尝试访问自己发布的/root共享(只允许192.168.4.205访问),结果如下所示:

    1. [root@svr5 ~]# mkdir  /root5
    2. [root@svr5 ~]# mount  192.168.4.5:/root  /root5    
    3. mount.nfs: access denied by server while mounting 192.168.4.5:/root

    4)为NFS共享/usr/src添加触发挂载

    要求的触发挂载点为/misc/nfsdir,其中/misc为autofs服务默认监控的文件夹,只需修改/etc/auto.misc文件,添加nfsdir的挂载设置即可:

    1. [root@pc205 ~]# vim  /etc/auto.misc
    2. .. ..
    3. nfsdir         -fstype=nfs,ro          192.168.4.5:/usr/src

    确保重载autofs服务:

    1. [root@pc205 ~]# service  autofs  restart  ;  chkconfig  autofs  on
    2. 停止 automount:                                    [确定]
    3. 正在启动 automount:                                 [确定]

    然后ls检查预期的挂载点,应该显示远程NFS共享/usr/src目录的内容,表示针对此NFS共享的触发挂载设置成功:

    1. [root@pc205 ~]# ls  /misc/nfsdir                      //查看以触发挂载操作
    2. debug  install.log  kernels  test.txt
    3. [root@pc205 ~]# df  -hT  /misc/nfsdir/              //确认触发结果
    4. Filesystem           Type  Size  Used Avail Use% Mounted on
    5. 192.168.4.5:/usr/src nfs    50G   15G   33G  31% /misc/nfsdir

     

    部署Multipath多路径环境

    4.1 问题

    通过Multipath,实现以下目标:

    • 在共享存储服务器上配置iSCSI,为应用服务器共享存储空间
    • 应用服务器上配置iSCSI,发现远程共享存储
    • 应用服务器上配置Multipath,将相同的共享存储映射为同一个名称

    4.2 方案

    配置2台虚拟机,每台虚拟机均为三块网卡:

    • eth0用作网络通信
    • eth1和eth2用于iSCSI存储
    • 具体配置如表-3所示

    -3 各节点IP地址配置

     

    4.3 步骤

    实现此案例需要按照如下步骤进行。

    步骤一:存储节点上添加额外的磁盘

    使用VMware软件新建(或修改)虚拟机,为虚拟机额外添加一块硬盘。

    步骤二:存储节点上安装并配置共享存储

    1)安装target软件

    打开命令行终端,执行以下命令:

    1. [root@storage ~]# vim /etc/tgt/targets.conf
    2. 添加以下内容:
    3. <target iqn.2016-05.cn.tedu.storage>
    4. backing-store /dev/sdb1
    5. initiator-address 192.168.1.10
    6. initiator-address 192.168.2.10
    7. </target>

    2)启动服务并查看结果

    1. [root@storage ~]# service tgtd start
    2. [root@storage ~]# chkconfig tgtd on
    3. [root@storage ~]# tgt-admin -s
    4. Target 1: iqn.2016-05.cn.tedu.storage
    5. System information:
    6. Driver: iscsi
    7. State: ready
    8. I_T nexus information:
    9. LUN information:
    10. LUN: 0
    11. Type: controller
    12. SCSI ID: IET     00010000
    13. SCSI SN: beaf10
    14. Size: 0 MB, Block size: 1
    15. Online: Yes
    16. Removable media: No
    17. Prevent removal: No
    18. Readonly: No
    19. Backing store type: null
    20. Backing store path: None
    21. Backing store flags: 
    22. LUN: 1
    23. Type: disk
    24. SCSI ID: IET     00010001
    25. SCSI SN: beaf11
    26. Size: 2147 MB, Block size: 512
    27. Online: Yes
    28. Removable media: No
    29. Prevent removal: No
    30. Readonly: No
    31. Backing store type: rdwr
    32. Backing store path: /dev/sdb1
    33. Backing store flags: 
    34. Account information:
    35. ACL information:
    36. 192.168.1.10
    37. 192.168.2.10

    注意以上的输出,正确的结果必须有LUN1,它记录的是共享磁盘信息。下面的ACL指的是该共享存储允许哪些应用服务器使用。

    步骤三:在应用服务器上安装并配置iSCSI客户端

    1)安装客户端软件

    1. [root@srv0 yum.repos.d]# yum list | grep iscsi
    2. iscsi-initiator-utils.x86_64           6.2.0.873-14.el6                   Server
    3. [root@srv0 yum.repos.d]# yum install -y iscsi-initiator-utils

    2)发现存储服务器的共享磁盘

    因为有两条链路都可以连接到共享存储,所以需要在两条链路上都发现它。

    1. [root@srv0 桌面]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.1.20 --discover
    2. 正在启动 iscsid:                                          [确定]
    3. 192.168.1.20:3260,1 iqn.2016-05.cn.tedu.storage
    4. [root@srv0 桌面]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.2.20 --discover
    5. 192.168.2.20:3260,1 iqn.2016-05.cn.tedu.storage
    6. [root@srv0 桌面]#

    3)登陆共享存储

    只需要将iscsi服务重启就可以自动登陆。在login之前,只能看到本地的存储,登陆之后,将会多出两块新的硬盘。

    1. [root@srv0 ~]# lsblk
    2. NAME                        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
    3. sda                           8:0    0   200G  0 disk
    4. ├─sda1                        8:1    0   500M  0 part /boot
    5. └─sda2                        8:2    0 199.5G  0 part
    6. ├─VolGroup-lv_root (dm-0) 253:0    0    50G  0 lvm  /
    7. ├─VolGroup-lv_swap (dm-1) 253:1    0   3.9G  0 lvm  [SWAP]
    8. └─VolGroup-lv_home (dm-2) 253:2    0 145.6G  0 lvm  /home
    9. sr0                          11:0    1   3.6G  0 rom  /media/cdrom
    10. [root@srv0 ~]# service iscsi restart
    11. 停止 iscsi:                                             [确定]
    12. 正在启动 iscsi:                                          [确定]
    13. [root@srv0 ~]# lsblk
    14. NAME                        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
    15. sda                           8:0    0   200G  0 disk
    16. ├─sda1                        8:1    0   500M  0 part /boot
    17. └─sda2                        8:2    0 199.5G  0 part
    18. ├─VolGroup-lv_root (dm-0) 253:0    0    50G  0 lvm  /
    19. ├─VolGroup-lv_swap (dm-1) 253:1    0   3.9G  0 lvm  [SWAP]
    20. └─VolGroup-lv_home (dm-2) 253:2    0 145.6G  0 lvm  /home
    21. sr0                          11:0    1   3.6G  0 rom  /media/cdrom
    22. sdb                           8:16   0     2G  0 disk
    23. sdc                           8:32   0     2G  0 disk
    24. [root@srv0 ~]#

    4)设置开机自启动

    iscsi用于自动login远程存储,iscsid是守护进程。

    1. [root@srv0 ~]# chkconfig iscsid on
    2. [root@srv0 ~]# chkconfig iscsi on

    步骤四:配置Multipath多路径

    1)安装多路径软件包

    1. [root@srv0 ~]# yum list | grep multipath
    2. device-mapper-multipath.x86_64         0.4.9-87.el6                       Server
    3. device-mapper-multipath-libs.i686      0.4.9-87.el6                       Server
    4. device-mapper-multipath-libs.x86_64    0.4.9-87.el6                       Server
    5. [root@srv0 ~]# yum install -y device-mapper-multipath

    2)生成配置文件

    1. [root@srv0 ~]# mpathconf --user_friendly_names n

    此处的选项是不使用系统默认的命名方法,共享存储在生产环境下很有可能是多台应用服务器共同使用。如果使用系统默认命名方法,每台应用服务器为共享存储起的名字不一定相同,这将给管理员带来很大的使用上的不便。关闭系统默认命名方法,共享存储的名字由管理员手工指定。

    3)获取wwid

    登陆共享存储后,系统多了两块硬盘,这两块硬盘实际上是同一个存储设备。应用服务器使用哪个都可以,但是如果使用sdb时,sdb对应的链路出现故障,它不会自动切换到sdc。

    为了能够实现系统自动选择使用哪条链路,需要将这两块磁盘绑定为一个名称。通过磁盘的wwid来判定哪些磁盘是相同的。

    取得一块磁盘wwid的方法如下:

    1. [root@srv0 ~]# scsi_id --whitelisted --device=/dev/sdb
    2. 1IET     00010001
    3. [root@srv0 ~]#

    4)修改配置文件

    首先声明获取wwid的方法:

    1. [root@srv0 ~]# vim /etc/multipath.conf
    2. defaults {
    3. user_friendly_names no
    4. getuid_callout          "/lib/udev/scsi_id --whitelisted --device=/dev/%n"
    5. }

    然后在文件的最后加入多路径声明,如果哪个存储设备的wwid和第(3)步获取的wwid一样,那么,为其取一个别名,叫mpatha。

    1. multipaths {
    2. multipath {
    3. wwid    "1IET     00010001"
    4. alias   mpatha
    5. }
    6. }

    步骤五:启用Multipath多路径,并测试

    1)启动Multipath,并设置为开机启动

    1. [root@srv0 ~]# service multipathd start
    2. 正在启动守护进程multipathd:                               [确定]
    3. [root@srv0 ~]# chkconfig multipathd on

    2)检查多路径设备文件

    如果多路长设置成功,那么将在/dev/mapper下面生成名为mpatha的设备文件:

    1. [root@srv0 ~]# ls /dev/mapper/
    2. control  mpatha  VolGroup-lv_home  VolGroup-lv_root  VolGroup-lv_swap

    3)对多路径设备文件执行分区、格式化、挂载操作

    1. [root@srv0 ~]# fdisk -cu /dev/mapper/mpatha
    2. Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel
    3. Building a new DOS disklabel with disk identifier 0x205c887e.
    4. Changes will remain in memory only, until you decide to write them.
    5. After that, of course, the previous content won't be recoverable.
    6. Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)
    7. Command (m for help): n      #创建分区
    8. Command action
    9. e   extended
    10. p   primary partition (1-4)
    11. p                      #分区类型为主分区
    12. Partition number (1-4): 1      #分区编号为1
    13. First sector (2048-4194303, default 2048):   #起始扇区回车
    14. Using default value 2048
    15. Last sector, +sectors or +size{K,M,G} (2048-4194303, default 4194303):  #回车
    16. Using default value 4194303
    17. Command (m for help): w       #保存并退出
    18. The partition table has been altered!
    19. Calling ioctl() to re-read partition table.

    新的分区名称应该是/dev/mapper/mpathap1,如果该文件不存在,则执行以下命令进行配置的重新载入:

    1. [root@srv0 ~]# partprobe ; multipath -rr
    2. Warning: WARNING: the kernel failed to re-read the partition table on /dev/sda (设备或资源忙).  As a result, it may not reflect all of your changes until after reboot.
    3. Warning: 无法以读写方式打开 /dev/sr0 (只读文件系统)/dev/sr0 已按照只读方式打开。
    4. Warning: 无法以读写方式打开 /dev/sr0 (只读文件系统)/dev/sr0 已按照只读方式打开。
    5. Warning: 无法以读写方式打开 /dev/sr0 (只读文件系统)/dev/sr0 已按照只读方式打开。
    6. Warning: WARNING: the kernel failed to re-read the partition table on /dev/sr0 (无效的参数).  As a result, it may not reflect all of your changes until after reboot.
    7. reload: mpatha (1IET     00010001) undef IET,VIRTUAL-DISK
    8. size=2.0G features='0' hwhandler='0' wp=undef
    9. |-+- policy='round-robin 0' prio=1 status=undef
    10. | `- 34:0:0:1 sdb 8:16 active ready running
    11. `-+- policy='round-robin 0' prio=1 status=undef
    12. `- 33:0:0:1 sdc 8:32 active ready running
    13. [root@srv0 ~]# ls /dev/mapper/    #再次查看,将会看到新的分区
    14. control  mpatha  mpathap1  VolGroup-lv_home  VolGroup-lv_root  VolGroup-lv_swap
    15. [root@srv0 ~]#

    创建目录并挂载:

    1. [root@srv0 ~]# mkfs.ext4 /dev/mapper/mpathap1
    2. [root@srv0 ~]# mkdir /data
    3. [root@srv0 ~]# mount /dev/mapper/mpathap1 /data/
    4. [root@srv0 ~]# df -h /data/
    5. Filesystem            Size  Used Avail Use% Mounted on
    6. /dev/mapper/mpathap1  2.0G  3.0M  1.9G   1% /data
  • 相关阅读:
    方法的重载
    this用法
    简单的随机数 代码和笔记
    java内存简单剖析
    day 28
    day 27
    day 26
    day 25
    day 24
    day 23
  • 原文地址:https://www.cnblogs.com/qingbai/p/11950785.html
Copyright © 2011-2022 走看看