zoukankan      html  css  js  c++  java
  • k8s之statefulset控制器

     

    statefulset:有状态副本集

    特点

    运行在: 1,稳定且唯一的网络标识符

    2,稳定且持久的存储

    3,有序,平滑地部署和扩展

    4,有序,平滑地删除和终止

    5,有序的滚动更新

     

    三个组件:headless service(无头服务), statefuleset,volumeClaimTemplate(存储卷申请模板)

    先准备pv

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name: pv001

      labels:

        name: pv001

        polity: fast

    spec:

      nfs:

        path: /data/volumes/v1

        server: node2

      accessModes: ["ReadWriteMany","ReadWriteOnce"]

      capacity:

        storage: 5Gi

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name: pv002

      labels:

        name: pv002

        polity: fast

    spec:

      nfs:

        path: /data/volumes/v2

        server: node2

      accessModes: ["ReadWriteOnce"]

      capacity:

        storage: 5Gi

    ---

     

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name: pv003

      labels:

        name: pv003

        polity: fast

    spec:

      nfs:

        path: /data/volumes/v3

        server: node2

      accessModes: ["ReadWriteMany","ReadWriteOnce"]

      capacity:

        storage: 5Gi

    ---

     

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name: pv004

      labels:

        name: pv004

        polity: fast

    spec:

      nfs:

        path: /data/volumes/v4

        server: node2

      accessModes: ["ReadWriteMany","ReadWriteOnce"]

      capacity:

        storage: 10Gi

    ---

     

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name: pv005

      labels:

        name: pv005

        polity: fast

    spec:

      nfs:

        path: /data/volumes/v5

        server: node2

      accessModes: ["ReadWriteMany","ReadWriteOnce"]

      capacity:

        storage: 10Gi

     

     

    kubectl apply -f pv-demo.yaml

    kubectl get pv

     

     

    实例

    apiVersion: v1

    kind: Service

    metadata:

      name: myapp-svc  service名

      labels:

        app: myapp

    spec:

      ports:

      - port: 80  service端口

       name: web  service端口名

      clusterIP: None  statefulset要求无头服务

      selector:  与pod关联的标签

        app: myapp-pod

    ---

    apiVersion: apps/v1

    kind: StatefulSet

    metadata:

      name: myapp  statefulset控制器名 创建的pod名也为这个

    spec:

      serviceName: myapp-svc 关联的service服务名,必须是无头服务

      replicas: 2

      selector:  管理哪些pod,关联pod的label

        matchLabels:

          app: myapp-pod

      template: 定义pod模板

        metadata:

          labels:  定义的pod的标签label

            app: myapp-pod

       spec:

         containers:

         - name: myapp  pod中容器名

          image: ikubernetes/myapp:v1

          ports:

          - containerPort: 80

           name: web

          volumeMounts:

           - name: myappdata 挂载myappdata存储卷

             mountPath: /usr/share/nginx/html 容器中挂载的路径

      volumeClaimTemplates:   pvc模板 为每个pod定义volume 自动创建pvc

      - metadata:

          name: myappdata   定义的pvc名

        spec:

          accessModes: ["ReadWriteOnce"]  单路读写

          resources:   资源

            requests: 请求

              storage: 5Gi 大小5Gi存储空间

     

     

    创建

    kubectl explain sts

    kubectl apply -f stateful-demo.yaml

     

     

    验证:

    kubectl get sts

    kubectl get pvc

    kubectl get svc

    kubectl get pv

    kubectl get pods

     

    删除sts时

    逆向删除pod

    kubectl delete -f stateful-demo.yaml

    删除时pvc还在,且一直保留给固定的pod

     

    statefulset支持滚动更新,规模扩展

    逆向更新

     

    dns解析

    kubectl exec -it myapp-0 -- /bin/sh

    nslookup  myapp-3.myapp-svc.default.svc.cluster.local

    域名构成   pod名 service名 命名空间 集群域名svc.cluster.local        

    域名 pod_name.service_name.namaspace_name.svc.cluster.local

    nslookup  myapp-3.myapp-svc

     

     

    扩容宿容

    kubectl scale sts myapp --replicas=3

    kubectl patch sts myapp -p '{"spec":{"replicas":2}}'

     

     

    更新策略

    kubectl explain sts.spec.updateStrategy

    kubectl explain sts.spec.updateStrategy.rollingUpdate

     

     

    分区更新

    kubectl explain sts.spec.updateStrategy.rollingUpdate.partition

    myapp-0

    myapp-1

    myapp-2

    myapp-3

    myapp-4

     

    partition:N

    N>=3

    即更新3和4,即myapp-3,myapp-4 这叫金丝雀发布

    验证

    方法一

    kubectl patch sts myapp -p '{"spec":{"replicas":5}}'

    kubectl patch sts myapp -p '{"spec":{"updateStrategy":{"rollingUpdate":{"partition":4}}}}' 打上补丁 partition>=4

    kubectl describe sts myapp 查看更新策略

    kubectl set image sts/myapp myapp=ikubernetes/myapp:v2 改变镜像就会更新了

    kubectl get sts -o wide

     

    方法二

    vim stateful-demo.yaml

    kind: StatefulSet

       ...

    spec:

      updateStrategy:

        rollingUpdate:

          partition: 3

     

     kubectl apply -f stateful-demo.yaml

     

    如果版本没问题,就全部更新

    vim stateful-demo.yaml

    kind: StatefulSet

       ...

    spec:

      updateStrategy:

        rollingUpdate:

          partition: 0

     

    kubectl apply -f stateful-demo.yaml 

    一、什么是StorageClass

    复制代码
    Kubernetes提供了一套可以自动创建PV的机制,即:Dynamic Provisioning.而这个机制的核心在于:StorageClass这个API对象.
    
    StorageClass对象会定义下面两部分内容:
    1,PV的属性.比如,存储类型,Volume的大小等.
    2,创建这种PV需要用到的存储插件
    有了这两个信息之后,Kubernetes就能够根据用户提交的PVC,找到一个对应的StorageClass,之后Kubernetes就会调用该StorageClass声明的存储插件,进而创建出需要的PV.
    但是其实使用起来是一件很简单的事情,你只需要根据自己的需求,编写YAML文件即可,然后使用kubectl create命令执行即可
    复制代码

    二、为什么需要StorageClass

    在一个大规模的Kubernetes集群里,可能有成千上万个PVC,这就意味着运维人员必须实现创建出这个多个PV,此外,随着项目的需要,会有新的PVC不断被提交,那么运维人员就需要不断的添加新的,满足要求的PV,否则新的Pod就会因为PVC绑定不到PV而导致创建失败.而且通过 PVC 请求到一定的存储空间也很有可能不足以满足应用对于存储设备的各种需求
    而且不同的应用程序对于存储性能的要求可能也不尽相同,比如读写速度、并发性能等,为了解决这一问题,Kubernetes 又为我们引入了一个新的资源对象:StorageClass,通过 StorageClass 的定义,管理员可以将存储资源定义为某种类型的资源,比如快速存储、慢速存储等,用户根据 StorageClass 的描述就可以非常直观的知道各种存储资源的具体特性了,这样就可以根据应用的特性去申请合适的存储资源了。

    三、StorageClass运行原理及部署流程

    要使用 StorageClass,我们就得安装对应的自动配置程序,比如我们这里存储后端使用的是 nfs,那么我们就需要使用到一个 nfs-client 的自动配置程序,我们也叫它 Provisioner,这个程序使用我们已经配置好的 nfs 服务器,来自动创建持久卷,也就是自动帮我们创建 PV。

    1.自动创建的 PV 以${namespace}-${pvcName}-${pvName}这样的命名格式创建在 NFS 服务器上的共享数据目录中
    2.而当这个 PV 被回收后会以archieved-${namespace}-${pvcName}-${pvName}这样的命名格式存在 NFS 服务器上。
    1.原理及部署流程说明

    详细的运作流程可以参考下图:

     搭建StorageClass+NFS,大致有以下几个步骤:

    1.创建一个可用的NFS Serve
    2.创建Service Account.这是用来管控NFS provisioner在k8s集群中运行的权限
    3.创建StorageClass.负责建立PVC并调用NFS provisioner进行预定的工作,并让PV与PVC建立管理
    4.创建NFS provisioner.有两个功能,一个是在NFS共享目录下创建挂载点(volume),另一个则是建了PV并将PV与NFS的挂载点建立关联  

    四、创建StorageClass

    1.创建NFS共享服务

    该步骤比较简单不在赘述,大家可以自行百度搭建

    当前环境NFS server及共享目录信息

    IP: 172.16.155.227
    Export PATH: /data/volumes/
    2.使用以下文档配置account及相关权限

    rbac.yaml:      #唯一需要修改的地方只有namespace,根据实际情况定义

    复制代码
    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: nfs-client-provisioner
      # replace with namespace where provisioner is deployed
      namespace: default        #根据实际环境设定namespace,下面类同
    ---
    kind: ClusterRole
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: nfs-client-provisioner-runner
    rules:
      - apiGroups: [""]
        resources: ["persistentvolumes"]
        verbs: ["get", "list", "watch", "create", "delete"]
      - apiGroups: [""]
        resources: ["persistentvolumeclaims"]
        verbs: ["get", "list", "watch", "update"]
      - apiGroups: ["storage.k8s.io"]
        resources: ["storageclasses"]
        verbs: ["get", "list", "watch"]
      - apiGroups: [""]
        resources: ["events"]
        verbs: ["create", "update", "patch"]
    ---
    kind: ClusterRoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: run-nfs-client-provisioner
    subjects:
      - kind: ServiceAccount
        name: nfs-client-provisioner
        # replace with namespace where provisioner is deployed
        namespace: default
    roleRef:
      kind: ClusterRole
      name: nfs-client-provisioner-runner
      apiGroup: rbac.authorization.k8s.io
    ---
    kind: Role
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: leader-locking-nfs-client-provisioner
        # replace with namespace where provisioner is deployed
      namespace: default
    rules:
      - apiGroups: [""]
        resources: ["endpoints"]
        verbs: ["get", "list", "watch", "create", "update", "patch"]
    ---
    kind: RoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: leader-locking-nfs-client-provisioner
    subjects:
      - kind: ServiceAccount
        name: nfs-client-provisioner
        # replace with namespace where provisioner is deployed
        namespace: default
    roleRef:
      kind: Role
      name: leader-locking-nfs-client-provisioner
      apiGroup: rbac.authorization.k8s.io
    复制代码
     3.创建NFS资源的StorageClass

    nfs-StorageClass.yaml  

    复制代码
    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: managed-nfs-storage
    provisioner: qgg-nfs-storage #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致
    parameters:
    archiveOnDelete: "false"
    复制代码
     4.创建NFS provisioner

    nfs-provisioner.yaml

    复制代码
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: nfs-client-provisioner
      labels:
        app: nfs-client-provisioner
      # replace with namespace where provisioner is deployed
      namespace: default  #与RBAC文件中的namespace保持一致
    spec:
      replicas: 1
      selector:
        matchLabels:
          app: nfs-client-provisioner
      strategy:
        type: Recreate
      selector:
        matchLabels:
          app: nfs-client-provisioner
      template:
        metadata:
          labels:
            app: nfs-client-provisioner
        spec:
          serviceAccountName: nfs-client-provisioner
          containers:
            - name: nfs-client-provisioner
              image: quay.io/external_storage/nfs-client-provisioner:latest
              volumeMounts:
                - name: nfs-client-root
                  mountPath: /persistentvolumes
              env:
                - name: PROVISIONER_NAME
                  value: qgg-nfs-storage  #provisioner名称,请确保该名称与 nfs-StorageClass.yaml文件中的provisioner名称保持一致
                - name: NFS_SERVER
                  value: 172.16.155.227   #NFS Server IP地址
                - name: NFS_PATH  
                  value: /data/volumes    #NFS挂载卷
          volumes:
            - name: nfs-client-root
              nfs:
                server: 172.16.155.227  #NFS Server IP地址
                path: /data/volumes     #NFS 挂载卷
    复制代码

    五、创建测试pod,检查是否部署成功

    1.Pod+PVC

    创建PVC

    test-claim.yaml

    复制代码
    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
      name: test-claim
      annotations:
        volume.beta.kubernetes.io/storage-class: "managed-nfs-storage"   #与nfs-StorageClass.yaml metadata.name保持一致
    spec:
      accessModes:
        - ReadWriteMany
      resources:
        requests:
          storage: 1Mi
    复制代码

    确保PVC状态为Bound

    [root@k8s-master-155-221 deploy]# kubectl get pvc
    NAME         STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS          AGE
    test-claim   Bound    pvc-aae2b7fa-377b-11ea-87ad-525400512eca   1Mi        RWX            managed-nfs-storage   2m48s
    [root@k8s-master-155-221 deploy]# kubectl get pv
    NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                STORAGECLASS          REASON   AGE
    pvc-aae2b7fa-377b-11ea-87ad-525400512eca   1Mi        RWX            Delete           Bound    default/test-claim   managed-nfs-storage            4m13s

    创建测试pod,查看是否可以正常挂载

    test-pod.yaml

    复制代码
    kind: Pod
    apiVersion: v1
    metadata:
      name: test-pod
    spec:
      containers:
      - name: test-pod
        image: busybox:1.24
        command:
          - "/bin/sh"
        args:
          - "-c"
          - "touch /mnt/SUCCESS && exit 0 || exit 1"   #创建一个SUCCESS文件后退出
        volumeMounts:
          - name: nfs-pvc
            mountPath: "/mnt"
      restartPolicy: "Never"
      volumes:
        - name: nfs-pvc
          persistentVolumeClaim:
            claimName: test-claim  #与PVC名称保持一致
    复制代码

    检查结果:

    [root@nginx-keepalived-155-227 ~]# ll /data/volumes/default-test-claim-pvc-aae2b7fa-377b-11ea-87ad-525400512eca/   #文件规则是按照${namespace}-${pvcName}-${pvName}创建的
    总用量 0
    -rw-r--r-- 1 root root 0 2020-01-15 17:51 SUCCESS  #下面有一个 SUCCESS 的文件,证明我们上面的验证是成功
    2.StateFulDet+volumeClaimTemplates自动创建PV

    创建无头服务及statefulset

    nginx-statefulset.yaml

    复制代码
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: nginx-headless
      labels:
        app: nginx
    spec:
      ports:
      - port: 80
        name: web
      clusterIP: None   #注意此处的值,None表示无头服务
      selector:
        app: nginx
    ---
    apiVersion: apps/v1beta1
    kind: StatefulSet
    metadata:
      name: web
    spec:
      serviceName: "nginx"
      replicas: 2  #两个副本
      template:
        metadata:
          labels:
            app: nginx
        spec:
          containers:
          - name: nginx
            image: ikubernetes/myapp:v1
            ports:
            - containerPort: 80
              name: web
            volumeMounts:
            - name: www
              mountPath: /usr/share/nginx/html
      volumeClaimTemplates:
      - metadata:
          name: www
          annotations:
            volume.beta.kubernetes.io/storage-class: "managed-nfs-storage"   #managed-nfs-storage为我们创建的storage-class名称
        spec:
          accessModes: [ "ReadWriteOnce" ]
          resources:
            requests:
              storage: 1Gi
    复制代码

    检查结果:

    集群节点上

    复制代码
     [root@k8s-master-155-221 classStorage]#kubectl delete -f nginx-statefulset.yaml 
    [root@k8s-master-155-221 classStorage]# kubectl get pods -l app=nginx  #检查pod状态
    NAME    READY   STATUS    RESTARTS   AGE
    web-0   1/1     Running   0          115m
    web-1   1/1     Running   0          114m
    [root@k8s-master-155-221 classStorage]# kubectl get pvc #查看PVC
    NAME         STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS          AGE
    test-claim   Bound    pvc-aae2b7fa-377b-11ea-87ad-525400512eca   1Mi        RWX            managed-nfs-storage   19h
    www-web-0    Bound    pvc-4d7e342a-3810-11ea-87ad-525400512eca   1Gi        RWO            managed-nfs-storage   115m
    www-web-1    Bound    pvc-5431c8ba-3810-11ea-87ad-525400512eca   1Gi        RWO            managed-nfs-storage   115m
    [root@k8s-master-155-221 classStorage]# kubectl get pv #查看PV
    NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                STORAGECLASS          REASON   AGE
    pvc-4d7e342a-3810-11ea-87ad-525400512eca   1Gi        RWO            Delete           Bound    default/www-web-0    managed-nfs-storage            115m
    pvc-5431c8ba-3810-11ea-87ad-525400512eca   1Gi        RWO            Delete           Bound    default/www-web-1    managed-nfs-storage            115m
    pvc-aae2b7fa-377b-11ea-87ad-525400512eca   1Mi        RWX            Delete           Bound    default/test-claim   managed-nfs-storage            19h
    复制代码

    NFS Server上:

    复制代码
    [root@nginx-keepalived-155-227 ~]# cd /data/volumes/
    [root@nginx-keepalived-155-227 volumes]# ll  #注意目录的命名格式
    总用量 0
    drwxrwxrwx 2 root root 21 2020-01-15 17:51 default-test-claim-pvc-aae2b7fa-377b-11ea-87ad-525400512eca
    drwxrwxrwx 2 root root  6 2020-01-16 11:28 default-www-web-0-pvc-4d7e342a-3810-11ea-87ad-525400512eca
    drwxrwxrwx 2 root root  6 2020-01-16 11:28 default-www-web-1-pvc-5431c8ba-3810-11ea-87ad-525400512eca
    [root@nginx-keepalived-155-227 volumes]# echo "web-00" > default-www-web-0-pvc-4d7e342a-3810-11ea-87ad-525400512eca/index.html #分别创建不同的index文件
    [root@nginx-keepalived-155-227 volumes]# echo "web-01" > default-www-web-1-pvc-5431c8ba-3810-11ea-87ad-525400512eca/index.html
    复制代码

    集群任意节点上:

    复制代码
    [root@k8s-master-155-221 classStorage]# kubectl exec -it pod-cm-1 -- /bin/sh  #进入集群中任意pod中,解析nginx-headless 服务/ # nslookup nginx-headless
    nslookup: can't resolve '(null)': Name does not resolve
    
    Name:      nginx-headless
    Address 1: 172.17.136.7 172-17-136-7.nginx-headless.default.svc.cluster.local  #可以看到有两个地址
    Address 2: 172.17.248.5 172-17-248-5.nginx-headless.default.svc.cluster.local
    [root@k8s-master-155-221 classStorage]# curl 172.17.248.5 #分别访问一下查看结果
    web-00
    [root@k8s-master-155-221 classStorage]# curl 172.17.136.7
    web-01
    复制代码

    #对于statefulset我们可以通过添加/删除pod副本的数量,观察PV/PVC的状态及变化.

    六、关于StorageClass回收策略对数据的影响

    1.第一种配置
       archiveOnDelete: "false"  
       reclaimPolicy: Delete   #默认没有配置,默认值为Delete

    测试结果:

    1.pod删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    2.sc删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    3.删除PVC后,PV被删除且NFS Server对应数据被删除
    2.第二种配置
       archiveOnDelete: "false"  
       reclaimPolicy: Retain  

    测试结果:

    1.pod删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    2.sc删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    3.删除PVC后,PV不会别删除,且状态由Bound变为Released,NFS Server对应数据被保留
    4.重建sc后,新建PVC会绑定新的pv,旧数据可以通过拷贝到新的PV中
    3.第三种配置
       archiveOnDelete: "ture"  
       reclaimPolicy: Retain  
    结果:
    1.pod删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    2.sc删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    3.删除PVC后,PV不会别删除,且状态由Bound变为Released,NFS Server对应数据被保留
    4.重建sc后,新建PVC会绑定新的pv,旧数据可以通过拷贝到新的PV中
    4.第四种配置
      archiveOnDelete: "ture"  
      reclaimPolicy: Delete  

    结果:

    1.pod删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    2.sc删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    3.删除PVC后,PV不会别删除,且状态由Bound变为Released,NFS Server对应数据被保留
    4.重建sc后,新建PVC会绑定新的pv,旧数据可以通过拷贝到新的PV中

    总结:除以第一种配置外,其他三种配置在PV/PVC被删除后数据依然保留

    七、常见问题

    1.如何设置默认的StorageClass

    我们可以用 kubectl patch 命令来更新:

    复制代码
    [root@k8s-master-155-221 classStorage]# kubectl get sc  #查看当前sc 
    NAME                  PROVISIONER       AGE 
    managed-nfs-storage   qgg-nfs-storage   20h
    [root@k8s-master-155-221 classStorage]# kubectl patch storageclass managed-nfs-storage -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'  #设置managed-nfs-storage为默认后端存储
    storageclass.storage.k8s.io/managed-nfs-storage patched
    [root@k8s-master-155-221 classStorage]# kubectl get sc  #再次查看,注意是否有default标识
    NAME                            PROVISIONER       AGE
    managed-nfs-storage (default)   qgg-nfs-storage   20h
    [root@k8s-master-155-221 deploy]# kubectl patch storageclass managed-nfs-storage -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}' #取消默认存储后端
    storageclass.storage.k8s.io/managed-nfs-storage patched
    [root@k8s-master-155-221 deploy]# kubectl get sc
    NAME                  PROVISIONER       AGE
    managed-nfs-storage   qgg-nfs-storage   20h
    复制代码
    YAML文件
    复制代码
    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: managed-nfs-storage
      annotations:
        "storageclass.kubernetes.io/is-default-class": "true"   #添加此注释
    provisioner: qgg-nfs-storage #or choose another name, must match deployment's env PROVISIONER_NAME'
    parameters:
      archiveOnDelete: "false"
    复制代码
     2.如何使用默认的StorageClass

     如果集群有一个默认的StorageClass能够满足我们的需求,那么剩下所有需要做的就是创建PersistentVolumeClaim(PVC),剩下的都有默认的动态配置搞定,包括无需去指定storageClassName:

    复制代码
    apiVersion: v1
    kind: PersistentVolumeClaim
    metadata:
     name: mypvc
     namespace: testns
    spec:
     accessModes:
     - ReadWriteOnce
     resources:
       requests:
         storage: 10Gi
    复制代码
    3.修改默回收策略(默认为Delete)
    复制代码
    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: managed-nfs-storage
      annotations:
    provisioner: qgg-nfs-storage #or choose another name, must match deployment's env PROVISIONER_NAME'
    parameters:
      archiveOnDelete: "ture" #暂时不清楚该值对回收策略产生什么影响
    reclaimPolicy: Retain   #只有NFS 和hostPth支持两种回收策略
    复制代码
    4.能过删除/关闭默认的StorageClass
    不能删除默认的StorageClass,因为它是作为集群的add-on安装的,如果它被删除,会被重新安装。
    当然,可以停掉默认的StorageClass行为,通过删除annotation:storageclass.beta.kubernetes.io/is-default-class,或者设置为false。
    如果没有StorageClass对象标记默认的annotation,那么PersistentVolumeClaim对象(在不指定StorageClass情况下)将不自动触发动态配置。相反,它们将回到绑定可用的*PersistentVolume(PV)*的状态。
    5.当删除PersistentVolumeClaim(PVC)会发生什么
    如果一个卷是动态配置的卷,则默认的回收策略为“删除”。这意味着,在默认的情况下,当PVC被删除时,基础的PV和对应的存储也会被删除。如果需要保留存储在卷上的数据,则必须在PV被设置之后将回收策略从delete更改为retain。

    参考文档:https://github.com/kubernetes-incubator/external-storage/tree/master/nfs-client

  • 相关阅读:
    五、drf路由组件
    四、drf视图组件
    三、drf请求&响应
    二、drf序列化器
    解决SQL Server管理器无法连接远程数据库的问题
    常见网络摄像机(摄像头)的端口及RTSP地址
    海康、大华网络摄像机RTSP URL格式组成及参数配置
    SQL 查询某字段不为空
    SqlServer中保留几位小数的两种做法
    sql重复数据只取一条记录
  • 原文地址:https://www.cnblogs.com/cheyunhua/p/15247277.html
Copyright © 2011-2022 走看看