zoukankan      html  css  js  c++  java
  • k8s的二进制包安装

    前言:

    kubernetes 官方提供的三种部署方式
    minikube

    Minikube是一个工具,可以在本地快速运行一个单点的Kubernetes,仅用于尝试Kubernetes或日常开发的用户使用。部署地址:https://kubernetes.io/docs/setup/minikube/

    kubeadm

    Kubeadm也是一个工具,提供kubeadm init和kubeadm join,用于快速部署Kubernetes集群。部署地址:https://kubernetes.io/docs/reference/setup-tools/kubeadm/kubeadm/

    二进制包

    推荐,从官方下载发行版的二进制包,手动部署每个组件,组成Kubernetes集群。下载地址:https://github.com/kubernetes/kubernetes/releases

      以上就是kubernetes的三种安装方式的介绍,本篇博客介绍的是二进制包的安装,下一篇博客将介绍容器化的安装,博客为转载,原博主的内容是非常的接地气,也没有什么错误,就在原文上稍作了修饰。

    借鉴博客:https://www.cnblogs.com/xkops/p/6169034.html

    此博客里面有每个k8s配置文件的注释:https://blog.csdn.net/qq_35904833/article/details/78190257

    啊西吧,啊西吧,根据上面的博客终于安装成功了。妈的,网上大部分博客安装k8s配置写得乱七八槽的,终于找到一篇条理清晰,安装详细的k8s安装博客啦,哈哈哈哈,不容易啊快三个星期了,从狗屁不懂搞这玩意。

    下面写一写我自己的安装流程:

      一、安装准备:

          准备两台服务器(我用的是CentOS7系统):192.168.26.227,192.168.26.228

          一主一从:

            master机:192.168.26.227

            node机:192.168.26.228

          简单说一下k8s:

            k8s是个什么玩意?

              可以这样去理解:k8s全称:Kubernetes,它可以看作是一个分布式系统支撑平台。          

            我们为什么要用k8s集群?

              故障自愈:

                k8s这个玩意可以监控容器运行,我们把项目放到容器里。由于一些外部内部原因服务器承受不住压力,如果主节点上的容器突然挂了,k8s立刻会自己将主机上的服务调度到另一个node机器上运行

              应用更新:

                更新项目上线时不用中断当前项目的运行。

              还有一些自动扩容,缩容的概念就不讲了,我本人也没亲身体会用过,不好说。

          k8s的全生命周期管理:

              在k8s进行管理应用的时候,基本步骤是:创建集群,部署应用,发布应用,扩展应用,更新应用。

           k8s的主要组件,以及它们主要是用来干什么的:

              etcd:一款开源软件。提供可靠的分布式数据存储服务,用于持久化存储K8s集群的配置和状态

              apiservice:用户程序(如kubectl)、K8s其它组件之间通信的接口。K8s其它组件之间不直接通信,而是通过API server通信的。这一点在上图的连接中可以体现,例如,只有API server连接了etcd,即其它组件更新K8s集群的状态时,只能通过API server读写etcd中的数据。

              Scheduler:排程组件,为用户应用的每一可部署组件分配工作结点。

              controller-manager:执行集群级别的功能,如复制组件、追踪工作结点状态、处理结点失败等。Controller Manager组件是由多个控制器组成的,其中很多控制器是按K8s的资源类型划分的,如Replication Manager(管理ReplicationController 资源),ReplicaSet Controller,PersistentVolume controller。

              kube-proxy:在应用组件间负载均衡网络流量。

              kubelet:管理工作结点上的容器。

              Contriner runtime Docker, rkt等实际运行容器的组件

          

        上面都是些k8s集群所要用到的组件,具体这些组件都是用来干嘛的呢,我们来好好分析分析。

          master主机上192.168.26.277必须要有的组件:

              etcd  :提供分布式数据存储的数据库吧,用于持久化存储k8s集群的配置和状态

              kube-apiserver:api service提供了http rest接口,是整个集群的入口,K8s其它组件之间不直接通信,而是通过API server通信的。(只有API server连接了etcd,即其它组件更新K8s集群的状态时,只能通过API server读写etcd中的数据)

              kube-scheduler:scheduler负责资源的调度

              kube-controller-manager:整个集群的管理控制中心,此组件里面是由多个控制器组成的,如:Replication Manager(管理ReplicationController 资源),ReplicaSet Controller,PersistentVolume controller。主要作用用来复制组件、追踪工作结点状态、处理失败结点

          node节点机上192.168.26.228必须要有的组件:

              flannel:好像是用来支持网络通信的吧

              kube-proxy:用来负载均衡网络流量

              kubelet:用来管理node节点机上的容器

              docker:运行项目镜像容器的组件

          2018年11月30日:

            今天又看了一些博客,多了一些认识和理解,如下:

            k8s的整个集群运行原理:【重点核心知识很重要】

              master主机上的kube-controller-manager是整个集群的控制管理中心,kube-controler-manager中的node controller模块 通过apiservice提供的监听接口,实时监控node机的状态信息。

     当某个node机器宕机,controller-manager就会及时排除故障并自动修复。

              node节点机上的kubelet进程每隔一段时间周期就会调用一次apiservice接口报告自身状态,apiservice接口接受到这些信息后将节点状态更新到ectd中。kubelet也通过apiservice的监听接口监听pod信息,如果监控到新的pod副本被调度绑定到本节点,则执行pod对应的容器的创建和启动,如果监听到pod对象被删除,则删除本节点对应的pod容器。(目前对pod、容器、镜像这些概念还不是很清晰,无法在大脑中构建这都是些什么玩意,先做个笔记记着吧)

            刚才在别人博客上看到一个图很有意思,我们总监叫我学了ELK日志系统,jenkins自动构建工具,最近在搞k8s,还差消息中间件没学,然后就看到了这个图,顿时整个公司要搭建的分布式服务器环境一目了然,由于我不是架构师并不知道公司整个服务器分布式系统是怎样的,现在才恍然大悟,原来如此,原来如此,原来如此呀。

            原图:

                  原图的博客地址:https://blog.csdn.net/zyc88888/article/details/79281954

            我做了笔记的图:

    》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

    下面废话不多说,来进行安装步骤:

      二、k8s安装步骤:

            1、所有机器上执行以下命令,准备安装环境:(注意是所有机器,主机master,从机node都要安装)

              1.1、安装epel-release源和docker

    yum -y install epel-release docker

              1.2、所有机器关闭防火墙

    复制代码
    systemctl stop firewalld
    systemctl disable firewalld

    setenforce 0

    #查看防火墙状态

    firewall-cmd --state

    复制代码

          2、现在开始master主机上192.168.26.227安装kubernetes Master

            2.1、使用yum安装etcd、kubernetes-master

    yum -y install etcd kubernetes-master

            

            2.2、编辑:vi /etc/etcd/etcd.conf文件,修改结果如下:

            2.3、配置:vi /etc/kubernetes/apiserver文件,配置结果如下:

             2.4、启动etcd、kube-apiserver、kube-controller-manager、kube-scheduler等服务,并设置开机启动。

    for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler; do systemctl restart $SERVICES;systemctl enable $SERVICES;systemctl status $SERVICES ; done

          

            2.5、在etcd中定义flannel网络

    etcdctl mk /atomic.io/network/config '{"Network":"172.17.0.0/16"}'

    》》》》》》》》以上master主机上的配置安装什么的都弄完了》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

          3、接下来弄node从机上的配置安装什么的

              3.1、在node机上192.168.26.228安装kubernetes Node和flannel组件应用

    yum -y install flannel kubernetes-node

              3.2、为flannel网络指定etcd服务,修改/etc/sysconfig/flanneld文件,配置结果如下图:

             3.3、修改:vi /etc/kubernetes/config文件,配置结果如下图:

            3.4、修改node机的kubelet配置文件/etc/kubernetes/kubelet

             3.5、node节点机上启动kube-proxy,kubelet,docker,flanneld等服务,并设置开机启动。

    for SERVICES in kube-proxy kubelet docker flanneld;do systemctl restart $SERVICES;systemctl enable $SERVICES;systemctl status $SERVICES; done

           

    》》》》》》以上所有master主机,node节点机上的配置就完成了,接下来看看k8s集群是否搭建起来了》》》》》》》》》》》》》》》》》》》

         

          在master主机上192.168.26.227执行如下命令,查看运行的node节点机器:

    kubectl get nodes

           成功啦啦啦啦,结果图如下:

    异常问题处理(一):

    如果在执行yaml文件的时候,pod的状态一直是containercreating,可能是因为本地的网络无法从国外的网站上拉取镜像:

    
    
    在node节点机执行以下命令,下载凭证文件:
    
    1、wget http://mirror.centos.org/centos/7/os/x86_64/Packages/python-rhsm-certificates-1.19.10-1.el7_4.x86_64.rpm
    
    2、rpm2cpio python-rhsm-certificates-1.19.10-1.el7_4.x86_64.rpm | cpio -iv --to-stdout ./etc/rhsm/ca/redhat-uep.pem | tee /etc/rhsm/ca/redhat-uep.pem
    
    3、docker pull registry.access.redhat.com/rhel7/pod-infrastructure:latest

     异常问题处理(二):

    启动pod,并且端口映射之后,按理来说应该可以在外部访问node节点的映射端口可以访问到服务,如果报错无法访问后,可能是因为如下原因:

      flannel比较依赖防火墙,部署docker-ce版本的话,在查看iptables -L的情况的时候,就会发现docker转发的规则是Drop的,这时候需要你手动改为Accept状态才可以转发的。

     两种方式可以对这个情况做对应修改:

    1.使用命令把FORWARD DROP 修改成FORWARD ACCEPT

    iptables -P FORWARD ACCEPT
    
    #机器重启之后,又恢复DROP了,再此加一条防止重启还原DROP的命令
    sleep 60 && /sbin/iptables -P FORWARD ACCEPT
    
    #再查看
    sudo iptables -S

    2.更改docker的启动服务脚本即可

    vim /etc/systemd/system/docker.service
    在
    [Service]
    这项下面添加
    
    ExecStartPost=/sbin/iptables -I FORWARD -s 0.0.0.0/0 -j ACCEPT
    
    然后重启docker

    如果找不到/etc/systemd/system/docker.service,那么试试/lib/systemd/system/docker.service这个目录,(docker版本的不同导致的这个问题)

  • 相关阅读:
    VC++MFC对话框程序中给对话添加背景图片
    C++中的引用
    64位Ubuntu 13.04 安装Bochs 2.3.5
    笔记
    ORG 07C00H的意思
    编译三思
    《黑客与画家》笔记
    linux 2.6up的设备和设备驱动模型
    linux嵌入式系统驱动程序的阻塞与异步
    【转】PWM占空比和分辨率
  • 原文地址:https://www.cnblogs.com/xiaoyuxixi/p/12532584.html
Copyright © 2011-2022 走看看