zoukankan      html  css  js  c++  java
  • Lustre文件系统ost损坏,恢复操作

    Lustre文件系统ost损坏,恢复操作

    1. oss1节点为例,一个oss节点挂载了两个OST

        

             2 .假如ost11 损坏,已无法备份OST上的数据。

      

                 

    1)尝试在管理节点或登录节点挂载文件系统

      

    2)执行lfs df -h查看下。

       

    此时OST0001 状态为 inactive device OST0001即为损坏的ost11ID,记录这个ID号后在管理节点上卸载文件系统,umount -l /lustrefs

     

    3) mds节点上执行lctl dl查看元数据信息。

      

     

      标红部分为损坏的OST

     

    4)查看下OST0001的配置信息

      lctl get_param osc.testfs-OST0001-osc-MDT0000.max_create_count

       

     

    5)把active max_create_count的值都设置为0

         

        

     

      此时OST0001状态由UP变为IN

      备注:active 设置为0还可以使用lctl conf_param testfs-OST0001-osc-MDT0000.active=0

      echo 0 >/proc/fs/lustre/osc/testfs-OST0001-osc-MDT0000/active

     

     

    6)将ost11对应的/dev/sdc盘格式化,如果是现场环境一定要和用户确认。

       使用fdisk parted对磁盘进行格式化,fdisk 最多可分配2T的空间。

      

    7) 再将磁盘格式化为lustre格式

        

     

    备注: --writeconf 必要参数,如果lustre版本是最新版的可以将--writeconf 替换为--replace

    --index OSTID号。

     

    8) 再次挂载ost

       

     3. mds节点上将activemax_create_count 恢复到原来的值

      

      

    4. 在管理节点或登录节点上重新挂载文件系统即可。

     

  • 相关阅读:
    Word pair Hu
    [bzoj1601] 灌水
    小木棍
    雇佣计划
    [Luogu1282] 多米诺骨牌
    [Luogu1216] 数字三角形
    [Luogu1734] 最大约数和
    [NOIp2008] 传纸条
    [Luogu1325] 雷达安装
    nginx
  • 原文地址:https://www.cnblogs.com/zl-py/p/11274562.html
Copyright © 2011-2022 走看看