zoukankan      html  css  js  c++  java
  • Rancher部署并导入K8S集群【转】

    Rancher 的部署可以有三种架构:

    • 高可用 Kubernetes 安装: 建议使用 Kubernetes 程序包管理器 Helm 在专用的 Kubernetes 集群上安装 Rancher。在 RKE 集群中,需要使用三个节点以实现高可用性。在 K3s 集群(轻量级kubernetes)中,仅需要两个节点即可。
    • 单节点 Kubernetes 安装: 另一个选择是在 Kubernetes 集群上使用 Helm 安装 Rancher,仅在集群中使用单个节点。虽然在这种情况下的 Rancher Server 不具有高可用性,但是这种架构既节省了资源,又保留了可扩展性。如果您想在短期内通过使用单个节点来节省资源,同时又保留高可用性迁移路径,最合适的架构就是单节点 Kubernetes 安装。
    • 单节点 Docker 安装: 将 Rancher 与 Docker 一起安装在单个节点上。这种安装方式的优点是开箱即用,建议在测试和演示环境中使用这种架构。它的缺点也非常明显,单节点 Docker 安装和 Kubernetes 安装之间无法迁移。如果您已经决定了要在生产环境中使用 Rancher,我们推荐您在上述的两种 Kubernetes 安装中选择一种,在生产环境中使用。
     
    一、部署Rancher v2.27环境(单节点Docker安装)
    1)这里我将Rancher部署到k8s集群的其中一个node节点172.16.60.234上。
    需要提前下载rancher镜像,这里选择 "rancher/rancher:stable"版本镜像
    1
    2
    3
    4
    5
    6
    7
    8
    下载rancher服务镜像
    [root@k8s-node01 ~]# docker pull rancher/rancher:stable
     
    查看镜像
    [root@k8s-node01 ~]# docker images
    REPOSITORY                                                TAG                 IMAGE ID            CREATED             SIZE
    rancher/rancher                                           stable              fb0772b142fe        13 days ago         856MB
    .........

      

    2)以容器方式启动Rancher服务
    1
    2
    3
    4
    5
    6
    启动rancher容器
    [root@k8s-node01 ~]# docker run -d -v /tmp/rancher:/tmp/rancher --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher:stable
     
    查看rancher容器
    [root@k8s-node01 ~]# docker ps|grep rancher
    2c2b36cb138b        rancher/rancher:stable                                        "entrypoint.sh"          3 hours ago         Up 3 hours          0.0.0.0:80->80/tcp, 0.0.0.0:443->443/tcp   lucid_robinson

      

    稍微等一会儿,待rancher容器进程完全拉起来后,就可以在浏览器里访问rancher了。访问地址是:https://172.16.60.234,首次访问会提示设置admin管理员密码。比如这里设置管理员密码为:admin@123456

    二、导入k8s集群到Rancher环境
    将已经部署好的k8s集群导入到Rancher环境中
    1)依次点击 "添加集群" -> "导入" -> "添加集群 - Import"

    2) 给自己导入的集群起一个名称。比如这里我导入的k8s集群名称设置为"kuvin-test-cluster"

    3)按照下面的指向,执行第一步骤和第三步骤(因为我这里二进制部署的k8s集群是有证书,所以跳过第二步骤,直接执行第三步骤)

     先查看node节点kubelet配置中的USER_ACCOUNT,默认是default-auth

    • 执行第一步骤操作(在k8s集群的master节点操作)
    1
    2
    [root@k8s-master01 work]# kubectl create clusterrolebinding cluster-admin-binding --clusterrole cluster-admin --user default-auth
    clusterrolebinding.rbac.authorization.k8s.io/cluster-admin-binding created
    • 接着执行第三步骤(在k8s集群的master节点操作)
    首先在浏览器里访问上面截图中的第三步骤中的yaml地址,查看yaml文件里配置的image镜像,提前在所以node节点将这些image镜像下载下来。
    也可以将浏览器里这些yaml配置内容粘贴到master节点的一个文件里,比如rancher_imoprt.yml,然后执行"kubectl create -f rancher_imoprt.yml"。这里我直接使用上面截图中第三步的命令进行cattle-cluster-agent和cattle-node-agent的pod创建

     查出来image镜像后,提前在所有的node节点节点上下载这个rancher/rancher-agent:v2.4.5镜像

    1
    2
    3
    4
    5
    6
    [root@k8s-node01 ~]# docker pull rancher/rancher-agent:v2.4.5
     
    [root@k8s-node01 ~]# docker images
    REPOSITORY                                                TAG                 IMAGE ID            CREATED             SIZE
    rancher/rancher-agent                                     v2.4.5              2e6c7ac4e072        13 days ago         294MB
    .......

      

    接着执行上面截图中的第三步骤操作
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    [root@k8s-master01 work]# curl --insecure -sfL https://172.16.60.234/v3/import/qx7972dgq5876dlvtx66hmb55l49w57tvpr8v58ldwvlk75bb44msn.yaml | kubectl apply -f -
    clusterrole.rbac.authorization.k8s.io/proxy-clusterrole-kubeapiserver created
    clusterrolebinding.rbac.authorization.k8s.io/proxy-role-binding-kubernetes-master created
    namespace/cattle-system created
    serviceaccount/cattle created
    clusterrolebinding.rbac.authorization.k8s.io/cattle-admin-binding created
    secret/cattle-credentials-ad2b8cf created
    clusterrole.rbac.authorization.k8s.io/cattle-admin created
    deployment.apps/cattle-cluster-agent created
    daemonset.apps/cattle-node-agent created

      

    待上面第三步骤成功操作后,到k8s集群的master节点上查看信息
    检查会发现k8s中多了一个cattle-system的命名空间:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    检查会发现k8s中多了一个cattle-system的命名空间
    [root@k8s-master01 work]# kubectl get ns
    NAME              STATUS   AGE
    cattle-system     Active   18m
    default           Active   3d19h
    kube-node-lease   Active   3d19h
    kube-public       Active   3d19h
    kube-system       Active   3d19h
     
    cattle-system的命名空间下创建了cattle-cluster-agent和cattle-node-agent的pod
    [root@k8s-master01 work]# kubectl get pods -n cattle-system
    NAME                                   READY   STATUS    RESTARTS   AGE
    cattle-cluster-agent-87944bb89-9l8vn   1/1     Running   0          18m
    cattle-node-agent-24vnp                1/1     Running   0          18m
    cattle-node-agent-86hdx                1/1     Running   0          18m
    cattle-node-agent-qz59v                1/1     Running   0          18m
     
    [root@k8s-master01 work]# kubectl get deployment -n cattle-system
    NAME                   READY   UP-TO-DATE   AVAILABLE   AGE
    cattle-cluster-agent   1/1     1            1           19m
     
    [root@k8s-master01 work]# kubectl get daemonset -n cattle-system
    NAME                DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR   AGE
    cattle-node-agent   3         3         3       3            3           <none>          19m
    • 观察集群导入后的状态
    执行完上面截图中的第三步骤后,观察下导入的集群的状态,状态依次从"Waiting" 变为 "Active"
    三、通过Rancher界面管理k8s集群

     

     

     点击上图右上角的"执行kubelet命令行",就可以在webshell里面通过kubelet命令查看集群信息了

    还可以通过查看导入的k8s集群的项目里的资源,来查看每个service下的pod情况

     

     动态伸缩pod副本

    登录pod容器内部

     pod重新部署

    Rancher还有很多管理k8s集群的其他操作功能,在这里就不一一介绍了。

    四、删除已导入的k8s集群,重新导入
    1)从Rancher界面直接删除已导入的集群

     

    2)删除已经导入的 "API&Keys" 信息

    3)删除上面截图中第一步骤中添加的权限(在k8s集群的master节点操作)

    1
    [root@k8s-master01 work]# kubectl delete clusterrolebinding cluster-admin-binding
    4)删除上面截图中第三步骤中添加的cattle-cluster-agent和cattle-node-agent的pod
    1
    2
    [root@k8s-master01 work]# kubectl delete deployment cattle-cluster-agent -n cattle-system
    [root@k8s-master01 work]# kubectl delete daemonset cattle-node-agent -n cattle-system

    或者将上面截图中第三步骤的yaml文件地址里的内容粘贴到k8s的master节点的一个yaml文件,比如rancher_imoprt.yml,直接针对这个yml文件执行"kubectl delete -f rancher_imoprt.yml"操作即可删除

    1
    [root@k8s-master01 work]# kubectl delete -f rancher_imoprt.yml

    转自

    Rancher部署并导入K8S集群 - 散尽浮华 - 博客园
    https://www.cnblogs.com/kevingrace/p/14617757.html

  • 相关阅读:
    express中 使用session与cookie
    mongoDB
    原生 js 实现 vue 的某些功能
    linux系统
    nodejs 程序(有的功能和前端js是不一样的)
    内网穿透技术
    webview
    PWA 应用
    计算机 和 互联网 知识
    css 图片 和 文本 的处理
  • 原文地址:https://www.cnblogs.com/paul8339/p/15629311.html
Copyright © 2011-2022 走看看