一、删除osd
ceph osd out 1
ceph osd down 1
systemctl stop ceph-osd@1
ceph osd crush remove osd.1
ceph osd rm 1
ceph auth del osd.1
二、用ceph-deploy方式新增一个osd
1、登录deploy节点,打开集群创建目录
root@ceph01:~# cd /root/my-cluster/
root@ceph01:~/my-cluster#
2、准备一块硬盘:/dev/sdb1并初始化osd
ceph-deploy osd prepare ceph02:/dev/sdb1
3、激活集群的所有osd
ceph-deploy osd activate ceph01:/dev/sdb1 ceph02:/dev/sdb1
三、纯手动方式新增一个OSD
1.在osd4创建挂载目录及放置配置文件的目录
ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机)
mkdir /ceph/osd.4
mkdir /etc/ceph
2.在osd4上格式化ext4的sda3分区,挂载分区。
mkfs.ext4 /dev/sda3
mount -o user_xattr /dev/sda3 /ceph/osd.4
3.将mon主机的id_dsa.pub拷至osd4主机,实现免密码访问
scp /root/.ssh/id_dsa.pub 192.168.0.110:/root/.ssh/id_dsa.pub102
ssh 192.168.0.110
cd /root/.ssh
cat id_dsa.pub102 > authorized_keys
4.在mon主机上修改ceph.conf配置文件
vi /etc/ceph/ceph.conf
[osd.4]
host = osd4
deves = /dev/sda3
5.复制修改后的ceph.conf文件至每一个MDS和OSD节点并复制一份至/usrlocal/etc/ceph/
scp /etc/ceph/ceph.conf 192.168.0.110:/etc/ceph/ (这里只写这一个,不要忘记同步其他节点的配置文件)
6.创建osd
ceph osd create osd.4
7.加载OSD数据目录
ssh 192.168.0.110
ceph-osd -i osd.4 --mkfs --mkkey
下面更新crushmap后,新增的osd就可以存放数据了。
8.创建当前正在使用的crushmap
ceph osd getcrushmap -o map (map 是自定义的一个名称,下面需要用到这个名称)
9.反编译后导出crushmap
crushtool -d map -o /root/map.txt (map.txt是导出的文件名)
10.修改map.txt
vi map.txt
#devices
device 0 osd.0
device 1 osd.1
device 2 osd.2
device 3 osd.3
device 4 osd.4
host osd4 {
id -1
alg straw
hash 0
item osd.4 weight 1.00
}
10.编译crushmap
cephtool -c /root/map.txt -o map
11.将编译好的map再次导入
ceph osd crushmap -i map
12.启动osd.4
ssh 102.168.0.110
/etc/init.d/ceph start osd.4或
/etc/init.d/ceph start osd.4或
systemctl start ceph-osd@4
13.查看osd.4是否正常启动
ceph -s