zoukankan      html  css  js  c++  java
  • Ceph osd故障硬盘更换

    正常状态:

    clip_image001

    故障状态:

    clip_image002

    clip_image003

    实施更换步骤:

    (1)关闭ceph集群数据迁移:

    osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其标记为out,并开始进行数据迁移恢复。为了降低ceph进行数据恢复或scrub等操作对性能的影响,可以先将其暂时关闭,待硬盘更换完成且osd恢复后再开启:

    for i in noout nobackfill norecover noscrub nodeep-scrub;do ceph osd set $i;done

    (2)定位故障osd

    ceph osd tree | grep -i down

    (3)进入osd故障的节点,卸载osd挂载目录

    [root@node3 ~]# umount /var/lib/ceph/osd/ceph-5

    (4)从crush map 中移除osd

    [root@node1 ~]# ceph osd crush remove osd.5

    removed item id 5 name 'osd.5' from crush map

    clip_image004

    (5)删除故障osd的密钥

    [root@node1 ~]# ceph auth del osd.5

    updated

    (6)删除故障osd

    [root@node1 ~]# ceph osd rm 5

    removed osd.5

    clip_image005

    (7)更换完新硬盘后,注意新硬盘的盘符,并创建osd

    clip_image006

    (8)在部署节点,切换为cent用户,添加新的osd

    [cent@deploy ceph]$ ceph-deploy osd create --data /dev/sdd node3

    clip_image007

    (9)待新osd添加crush map后,重新开启集群禁用标志

    for i in noout nobackfill norecover noscrub nodeep-scrub;do ceph osd unset $i;done

    ceph集群经过一段时间的数据迁移后,恢复active+clean状态

    clip_image008

    clip_image009

  • 相关阅读:
    vue动态组件
    服务端渲染和nuxt简单介绍
    nuxt Window 或 Document未定义解决方案
    知乎专栏开放性api
    小程序的一些坑
    搭建微服务器(续)
    调研pwa和sw
    mysql索引原理以及优化
    装饰器
    斐波那契数列和小青蛙跳跳跳问题
  • 原文地址:https://www.cnblogs.com/liangzb310/p/11159556.html
Copyright © 2011-2022 走看看