zoukankan      html  css  js  c++  java
  • 2021年12月cka考题总结及考试注意事项

    CKA考试题目

    截止到12月11日发现以下所有考试题型没有变化,无非就是换些名称而已。及格为66分
    注意事项
    1、每一题的最后都有答案,可以先自己尝试做然后点击“查看代码按钮”,查看答案对比一下(每个人的写法都可能会有所不同),(凡是yaml内容都需要自己创建yaml文件,写完之后一定要使用kubectl create -f xxx.yaml进行创建后,再去查看),每一题写完之后都要使用kubectl get 等命令进行验证一下
    2、考试时允许查看kubernetes.io官方文档,每一题写完之后可以保存一下官网文档的书签,考试时直接打开复制粘贴即可,比如像我这样
    image
    3、考完之后24小时内一般就会有邮件通知考试是否合格

    第1题: 基于角色的访问控制-RBAC

    题目:
    image
    中文解释:
    创建一个名为deployment-clusterrole的clusterrole,该clusterrole只允许创建Deployment、Daemonset、Statefulset的create操作
    在名字为app-team1的namespace下创建一个名为cicd-token的serviceAccount,并且将上一步创建clusterrole的权限绑定到该serviceAccount
    解题:
    可参考:https://kubernetes.io/zh/docs/reference/access-authn-authz/rbac/

    https://kubernetes.io/zh/docs/reference/access-authn-authz/rbac/#kubectl-create-clusterrole

    点击查看代码
    
    kubectl create clusterrole deployment-clusterrole --verb=create --resource=deployments,statefulsets,daemonsets
    
    kubectl -n app-team1 create serviceaccount cicd-token
    
    kubectl -n app-team1 create rolebinding cicd-token-binding --clusterrole=deployment-clusterrole --serviceaccount=app-team1:cicd-token
    
    

    第2题 节点维护-指定node节点不可用

    题目:
    image

    中文解释:
    将ek8s-node-1节点设置为不可用,然后重新调度该节点上的所有Pod
    参考:https://kubernetes.io/docs/reference/generated/kubectl/kubectl-commands#drain

    解题:

    点击查看代码
    $ kubectl config use-context ek8s
    $ kubectl cordon ek8s-node-1    #设置节点是不可调度状态
    $ kubectl drain ek8s-node-1 --delete-emptydir-data --ignore-daemonsets --force
    

    第3题 K8s版本升级

    题目:(12月刚考试完,第3题版本升级从1.21.x升级到1.22.x)
    image

    翻译:
    现有的 Kubernetes 集权正在运行的版本是 1.21.0,仅将主节点上的所有 kubernetes 控制面板和组件升级到版本 1.22.0 另外,在主节点上升级 kubelet 和 kubectl

    解题:
    参考:https://kubernetes.io/zh/docs/tasks/administer-cluster/kubeadm/kubeadm-upgrade/

    点击查看代码
    #设置为维护状态
    $ kubectl config use-context mk8s
    $ kubectl get nodes
    NAME           STATUS   ROLES                  AGE   VERSION
    k8s-master     Ready      control-plane,master   11d   v1.21.0
    k8s-node01     Ready    <none>                 8d    v1.21.0
    k8s-node02     Ready    <none>                 11d   v1.21.0
    
    $ kubectl cordon k8s-master
    # 驱逐Pod
    $ kubectl drain k8s-master --delete-emptydir-data --ignore-daemonsets –force
    
    #按照题目提示ssh到一个master节点
    $ ssh k8s-master
    $ apt update
    $ apt-cache policy kubeadm | grep 1.22.0  #查看支持哪个版本
    $ apt-get install kubeadm=1.22.0-00
    
    #验证升级计划
    $ kubeadm upgrade plan
    # 看到如下信息,可升级到指定版本
    You can now apply the upgrade by executing the following command:
    
    	kubeadm upgrade apply v1.22.0
    
    # 开始升级Master节点
    $ kubeadm  upgrade apply v1.22.0 --etcd-upgrade=false
    [upgrade/successful] SUCCESS! Your cluster was upgraded to "v1.22.0". Enjoy!
    
    [upgrade/kubelet] Now that your control plane is upgraded, please proceed with upgrading your kubelets if you haven't already done so.
    
    # 升级kubectl和kubelet
    $ apt-get install -y kubelet=1.22.0-00 kubectl=1.22.0-00
    $ systemctl daemon-reload
    $ systemctl restart kubelet
    $ kubectl uncordon k8s-master
    node/k8s-master uncordoned
    $ kubectl  get node
    NAME           STATUS   ROLES                  AGE   VERSION
    k8s-master     Ready      control-plane,master   11d   v1.22.0
    k8s-node01     Ready    <none>                 8d    v1.21.0
    k8s-node02     Ready    <none>                 11d   v1.21.0
    

    第4题 Etcd数据库备份恢复

    题目:
    image

    中文解释:
    针对etcd实例https://127.0.0.1:2379创建一个快照,保存到/srv/data/etcd-snapshot.db。在创建快照的过程中,如果卡住了,就键入ctrl+c终止,然后重试。
    然后恢复一个已经存在的快照: /var/lib/backup/etcd-snapshot-previous.db
    执行etcdctl命令的证书存放在:
    ca证书:/opt/KUIN00601/ca.crt
    客户端证书:/opt/KUIN00601/etcd-client.crt
    客户端密钥:/opt/KUIN00601/etcd-client.key

    解题:
    可参考:https://kubernetes.io/zh/docs/tasks/administer-cluster/configure-upgrade-etcd/

    点击查看代码
      
    注意:需要自己安装etcdctl命令
    #备份
    $ export ETCDCTL_API=3  
    $ etcdctl --endpoints="https://127.0.0.1:2379" --cacert=/opt/KUIN000601/ca.crt --cert=/opt/KUIN000601/etcd-client.crt --key=/opt/KUIN000601/etcd-client.key  snapshot save /srv/data/etcd-snapshot.db
    
    还原
    $ mkdir /opt/backup/ -p
    $ cd /etc/kubernetes/manifests && mv kube-* /opt/backup
    $ export ETCDCTL_API=3  
    $etcdctl --endpoints="https://127.0.0.1:2379" --cacert=/opt/KUIN000601/ca.crt --cert=/opt/KUIN000601/etcd-client.crt --key=/opt/KUIN000601/etcd-client.key   snapshot restore /var/lib/backup/etcd-snapshot-previous.db --data-dir=/var/lib/etcd-restore
    
    $ vim etcd.yaml
    # 将volume配置的path: /var/lib/etcd改成/var/lib/etcd-restore
      volumes:
      - hostPath:
          path: /etc/kubernetes/pki/etcd
          type: DirectoryOrCreate
        name: etcd-certs
      - hostPath:
          path: /var/lib/etcd-restore
    
    # 还原k8s组件
    $ mv /opt/backup/* /etc/kubernetes/manifests
    $ systemctl restart kubelet
    

    第5题 网络策略NetworkPolicy

    题目:
    image

    中文解释:
    创建一个名字为all-port-from-namespace的NetworkPolicy,这个NetworkPolicy允许internal命名空间下的Pod访问该命名空间下的9000端口。
    并且不允许不是internal命令空间的下的Pod访问
    不允许访问没有监听9000端口的Pod。
    解题:
    参考:https://kubernetes.io/zh/docs/concepts/services-networking/network-policies/

    点击查看代码
    apiVersion: networking.k8s.io/v1
    kind: NetworkPolicy
    metadata:
      name: all-port-from-namespace
      namespace: internal
    spec:
      ingress:
      - from:
        - podSelector: {}
        ports:
        - port: 9000
          protocol: TCP
      podSelector: {}
      policyTypes:
      - Ingress
    
    

    第6题 四层负载均衡service

    题目:
    image

    中文解释:
    重新配置一个已经存在的deployment front-end,在名字为nginx的容器里面添加一个端口配置,名字为http,暴露端口号为80,然后创建一个service,名字为front-end-svc,暴露该deployment的http端口,并且service的类型为NodePort。
    解题:
    本题可以参考:https://kubernetes.io/docs/concepts/services-networking/connect-applications-service/
    image

    点击查看代码
    $ kubectl edit deploy front-end
    # 添加如下配置,主要是在name为nginx的容器下
    
    
    添加service:
    $ 
    kubectl expose deploy front-end --name=front-end-svc  --port=80 --target-port=http --type=NodePort
    
    

    第7题 七层负载均衡Ingress

    题目:
    image

    中文解释:
    在ing-internal 命名空间下创建一个ingress,名字为pong,代理的service hi,端口为5678,配置路径/hi。
    验证:访问curl -kL <INTERNAL_IP>/hi会返回hi
    解题:
    本地可参考:https://kubernetes.io/zh/docs/concepts/services-networking/ingress/

    点击查看代码
    apiVersion: networking.k8s.io/v1
    kind: Ingress
    metadata:
      name: pong
      namespace: ing-internal
    spec:
      rules:
      - http:
          paths:
          - path: /hi
            pathType: Prefix
            backend:
              service:
                name: hi
                port:
                  number: 5678
    

    最后一步按题目给出的方法进行验证即可

    第8题 Deployment管理pod扩缩容

    题目:
    image

    中文解释:
    扩容名字为loadbalancer的deployment的副本数为6
    解题:

    点击查看代码
    $ kubectl config use-context k8s
    
    $ kubectl scale --replicas=6 deployment loadbalancer
    
    或者用$ kubectl edit deployment loadbalancer 直接在线扩容也可以
    

    第9题 pod指定节点部署

    题目:
    image

    中文解释:
    创建一个Pod,名字为nginx-kusc00401,镜像地址是nginx,调度到具有disk=spinning标签的节点上,该题可以参考链接:
    https://kubernetes.io/zh/docs/tasks/configure-pod-container/assign-pods-nodes/
    解题:

    点击查看代码
    $ vim pod-ns.yaml
    apiVersion: v1
    kind: Pod
    metadata:
      name: nginx-kusc00401
      labels:
        role: nginx-kusc00401
    spec:
      nodeSelector:
        disk: spinning
      containers:
        - name: nginx
          image: nginx
    $ kubectl create -f pod-ns.yaml
    
    

    第10题 检查Node节点的健康状态

    题目:
    image

    中文解释:
    检查集群中有多少节点为Ready状态,并且去除包含NoSchedule污点的节点。之后将数字写到/opt/KUSC00402/kusc00402.txt
    解题:

    点击查看代码
    $ kubectl config use-context k8s
    $ kubectl get node | grep -i ready   # 记录总数为A
    $ kubectl  describe node | grep Taint | grep NoSchedule  # 记录总数为B
    # 将A减B的值x导入到/opt/KUSC00402/kusc00402.txt
    $ echo x >> /opt/KUSC00402/kusc00402.txt
    grep -i: 忽略字符大小写的差别。
    
    

    第11题 一个Pod封装多个容器

    题目:
    image

    中文解释:
    创建一个Pod,名字为kucc1,这个Pod可能包含1-4容器,该题为四个:nginx+redis+memcached+consul
    解题:

    点击查看代码
    apiVersion: v1
    kind: Pod
    metadata:
      name: kucc1
    spec:
      containers:
      - image: nginx
        name: nginx
      - image: redis
        name: redis
      - image: memchached
        name: memcached
      - image: consul
        name: consul
    

    第12题 持久化存储卷Persistent、Volume

    题目:
    image

    中文解释:
    创建一个pv,名字为app-config,大小为2Gi,访问权限为ReadWriteMany。Volume的类型为hostPath,路径为/srv/app-config
    解题:
    参考:
    https://kubernetes.io/docs/tasks/configure-pod-container/configure-persistent-volume-storage/

    点击查看代码
    apiVersion: v1
    kind: PersistentVolume
    metadata:
      name: app-config
      labels:
        type: local
    spec:
      storageClassName: manual  #可以写也可以不写
      capacity:
        storage: 2Gi
      accessModes:
        - ReadWriteMany
      hostPath:
        path: "/srv/app-config"
    

    第13题 PersistentVolumeClaim

    题目:
    image

    中文文档:
    创建一个名字为pv-volume的pvc,指定storageClass为csi-hostpath-sc,大小为10Mi
    然后创建一个Pod,名字为web-server,镜像为nginx,并且挂载该PVC至/usr/share/nginx/html,挂载的权限为ReadWriteOnce。之后通过kubectl edit或者kubectl path将pvc改成70Mi,并且记录修改记录。
    解题:
    参考:
    https://kubernetes.io/docs/tasks/configure-pod-container/configure-persistent-volume-storage/

    点击查看代码
    	创建PVC:
    apiVersion: v1
    kind: PersistentVolumeClaim
    metadata:
      name: pv-volume
    spec:
      accessModes:
      - ReadWriteOnce
      resources:
        requests:
          storage: 10Mi
      storageClassName: csi-hostpath-sc
    创建Pod:
    apiVersion: v1
    kind: Pod
    metadata:
      name: web-server
    spec:
      containers:
        - name: nginx
          image: nginx
          volumeMounts:
          - mountPath: "/usr/share/nginx/html"
            name: pv-volume
      volumes:
        - name: pv-volume
          persistentVolumeClaim:
            claimName: pv-volume
    扩容:
    	方式一Patch命令:
    		kubectl patch pvc pv-volume  -p '{"spec":{"resources":{"requests":{"storage": "70Mi"}}}}' --record
    
    		方式二edit:
    kubectl  edit pvc pv-volume
    
    

    第14题 监控Pod日志

    题目:
    image

    中文解释:
    监控名为foobar的Pod的日志,并过滤出具有unable-access-website 信息的行,然后将写入到 /opt/KUTR00101/foobar
    解题:

    点击查看代码
    $ kubectl config use-context k8s
    $ kubectl logs foobar | grep unable-access-website > /opt/KUTR00101/foobar
    

    第15题 Sidecar代理

    题目:
    image

    中文解释:
    添加一个名为busybox且镜像为busybox的sidecar到一个已经存在的名为legacy-app的Pod上,这个sidecar的启动命令为/bin/sh, -c, 'tail -n+1 -f /var/log/legacy-app.log'。
    并且这个sidecar和原有的镜像挂载一个名为logs的volume,挂载的目录为/var/log/
    解题:
    本题答案:https://kubernetes.io/zh/docs/concepts/cluster-administration/logging/
    首先将legacy-app的Pod的yaml导出,大致如下:

    点击查看代码
    $ kubectl get po legacy-app -oyaml > c-sidecar.yaml
    apiVersion: v1
    kind: Pod
    metadata:
      name: legacy-app
    spec:
      containers:
      - name: count
        image: busybox
        args:
        - /bin/sh
        - -c
        - >
          i=0;
          while true;
          do
            echo "$(date) INFO $i" >> /var/log/legacy-ap.log;
            i=$((i+1));
            sleep 1;
          done   
    再此yaml中添加sidecar和volume
    $ vim c-sidecar.yaml
    apiVersion: v1
    kind: Pod
    metadata:
      name: legacy-app
    spec:
      containers:
      - name: count
        image: busybox
        args:
        - /bin/sh
        - -c
        - >
          i=0;
          while true;
          do
            echo "$(date) INFO $i" >> /var/log/legacy-ap.log;
            i=$((i+1));
            sleep 1;
          done      
        volumeMounts:
        - name: logs
          mountPath: /var/log
      - name: busybox
        image: busybox
        args: [/bin/sh, -c, 'tail -n+1 -f /var/log/legacy-ap.log']
        volumeMounts:
        - name: logs
          mountPath: /var/log
      volumes:
      - name: logs
        emptyDir: {}
    $ kubectl  delete -f c-sidecar.yaml ; kubectl create -f c-sidecar.yaml
    
    

    第16题 监控Pod度量指标

    题目:
    image

    中文解释:
    找出具有name=cpu-user的Pod,并过滤出使用CPU最高的Pod,然后把它的名字写在已经存在的/opt/KUTR00401/KUTR00401.txt文件里(注意他没有说指定namespace。所以需要使用-A指定所以namespace)
    解题:

    点击查看代码
    $ kubectl config use-context k8s
    $ kubectl  top po -A -l name=cpu-user
    NAMESPACE     NAME                       CPU(cores)   MEMORY(bytes)   
    kube-system   coredns-54d67798b7-hl8xc   7m           8Mi             
    kube-system   coredns-54d67798b7-m4m2q   6m           8Mi
    # 注意这里的pod名字以实际名字为准,按照CPU那一列进行选择一个最大的Pod,另外如果CPU的数值是1 2 3这样的。是大于带m这样的,因为1颗CPU等于1000m,注意要用>>而不是>
    
    $ echo "coredns-54d67798b7-hl8xc" >> /opt/KUTR00401/KUTR00401.txt
    
    

    第17题 集群故障排查 – kubelet故障

    题目:
    image

    中文解释:
    一个名为wk8s-node-0的节点状态为NotReady,让其他恢复至正常状态,并确认所有的更改开机自动完成
    解题:

    点击查看代码
    $ ssh wk8s-node-0
    $ sudo -i
    # systemctl status kubelet 
    # systemctl start kubelet
    # systemctl enable kubelet
    
    

    主节点故障排查:--之前的考试题,现在考试应该没有这个题了。
    https://kubernetes.io/zh/docs/tasks/configure-pod-container/static-pod/

    我有梦,有远方,我会为了它们奔跑,奋斗,直到成为连我自己都佩服的人。
  • 相关阅读:
    一道压强题
    考试习惯的审题+习题+电脑存放目录记录
    产品需求分类及KANO模型需求排序学习
    马斯洛需求层次理论及其新拓展学习笔记
    12-JQuery学习之bind绑定事件
    11-JQuery学习之ready预加载事件
    09-JQuery学习之删除元素
    10-JQuery学习之遍历元素
    08-JQuery学习之创建元素和添加元素
    06-JQuery学习之操作元素的样式
  • 原文地址:https://www.cnblogs.com/fengdejiyixx/p/15602074.html
Copyright © 2011-2022 走看看