k8s node节点剔除与增加
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
节点增加1. 在 master 节点,获取重新加入集群的 tokenkubeadm token create --print-join-command2. 在 node 节点,安装 docker 环境,与之前部署 k8s 集群操作一致3. 在 master 节点进行操作,排干 pod 所在的node节点( 拿 k8s-node04.bjyzxg.sjhl 举例 ) kubectl drain k8s-node04.bjyzxg.sjhl --delete-local-data --force --ignore-daemonsets 在 master 节点进行操作,删除该 node节点 kubectl delete node k8s-node04.bjyzxg.sjhl 4. 在 node 节点执行第一步的结果 join 操作 kubeadm join 172.25.102.69:8443 --token ak3jyo.inndvdad9i19z8pc --discovery-token-ca-cert-hash sha256:740268f9b9d0161430b5f47498d941b0a80672f50321ddadbef327a8086f7b40 5. 在 node 节点操作,安装 ceph 依赖包yum install ceph-common6.另外,对于 node节点 drain 之后需要恢复的,可以执行:恢复调度kubectl uncordon node_name |
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
对于之前是node 节点的,后来剔除过,又因为别的原因还要加入node 节点的首先执行: kubectl drain k8s-node04.bjyzxg.sjhl --delete-local-data --force --ignore-daemonsets kubectl delete node k8s-node04.bjyzxg.sjhl其次执行:1. kubeadm reset2. systemctl stop kubelet3. systemctl stop docker4. rm -rf /var/lib/cni/5. rm -rf /var/lib/kubelet/*6. rm -rf /etc/cni/7. ifconfig cni0 down8. ifconfig flannel.1 down9. ifconfig docker0 down10. ip link delete cni011. ip link delete flannel.112. systemctl start docker最后执行: kubeadm join 172.25.102.69:8443 --token ak3jyo.inndvdad9i19z8pc --discovery-token-ca-cert-hash sha256:740268f9b9d0161430b5f47498d941b0a80672f50321ddadbef327a8086f7b40 |