zoukankan      html  css  js  c++  java
  • Ceph OSD更换硬盘后遭遇PG Inconsistent异常与处理

           昨天一块osd硬盘不幸去世了,经过一番努力后新硬盘挂载进rook ceph cluster,并且ceph自动开始进行数据均衡。今天打开后发现Health是ERROR状态,难道新硬盘数据均衡出现问题了?

    1、进入ceph tools pod

    kubectl -n rook-ceph exec -it $(kubectl -n rook-ceph get pod -l "app=rook-ceph-tools" -o jsonpath='{.items[0].metadata.name}') bash

    2、检测ceph状态

    ceph health detail

    image

    好吧,是真的出问题了,只不过这种属于小问题,8个pg不一至。但是也要及时处理不然小问题堆积的多最终也成大问题

    3、使用ceph命令使数据同步,我们先对pg 2.1执行处理

    ceph pg repair 2.1
    ceph health detail

    image

    使用repair命令后,隔几秒再使用health查看就可以看到pg 2.1的状态已经有一个repair,进入数据同步状态

    4、过段时间等待修复结束后我们再查看,发现不同步的pg已经变成了7个,有问题的scrub也减到了77个,pg 2.1也从异步列表中消失

    image

  • 相关阅读:
    spring的了解以及简单框架的搭建
    动态代理
    struts2标签(转)
    使用OGNL表达式
    struts2 ValueStack
    struts2框架xml验证
    struts2 validate手动验证
    struts2自定义拦截器
    struts2文件上传
    当findById(Integer id)变成String类型
  • 原文地址:https://www.cnblogs.com/lswweb/p/13897740.html
Copyright © 2011-2022 走看看