zoukankan      html  css  js  c++  java
  • kubernetes 集群环境搭建

    kubernetes组件

    一个kubernetes集群主要是由控制节点(master)工作节点(node)构成,每个节点上都会安装不同的组件。

    master:集群的控制平面,负责集群的决策 ( 管理 )

    ApiServer : 资源操作的唯一入口,接收用户输入的命令,提供认证、授权、API注册和发现等机制

    Scheduler : 负责集群资源调度,按照预定的调度策略将Pod调度到相应的node节点上

    ControllerManager : 负责维护集群的状态,比如程序部署安排、故障检测、自动扩展、滚动更新等

    **Etcd **:负责存储集群中各种资源对象的信息

    **node:集群的数据平面,负责为容器提供运行环境 ( 干活 ) **

    Kubelet : 负责维护容器的生命周期,即通过控制docker,来创建、更新、销毁容器

    KubeProxy : 负责提供集群内部的服务发现和负载均衡

    Docker : 负责节点上容器的各种操作

    kubernetes概念

    Master:集群控制节点,每个集群需要至少一个master节点负责集群的管控

    Node:工作负载节点,由master分配容器到这些node工作节点上,然后node节点上的docker负责容器的运行

    Pod:kubernetes的最小控制单元,容器都是运行在pod中的,一个pod中可以有1个或者多个容器

    Controller:控制器,通过它来实现对pod的管理,比如启动pod、停止pod、伸缩pod的数量等等

    Service:pod对外服务的统一入口,下面可以维护者同一类的多个pod

    Label:标签,用于对pod进行分类,同一类pod会拥有相同的标签

    NameSpace:命名空间,用来隔离pod的运行环境

    环境规划

    集群类型

    kubernetes集群大体上分为两类:一主多从多主多从

    • 一主多从:一台Master节点和多台Node节点,搭建简单,但是有单机故障风险,适合用于测试环境
    • 多主多从:多台Master节点和多台Node节点,搭建麻烦,安全性高,适合用于生产环境

    安装方式

    kubernetes有多种部署方式,目前主流的方式有kubeadm、minikube、二进制包

    • minikube:一个用于快速搭建单节点kubernetes的工具
    • kubeadm:一个用于快速搭建kubernetes集群的工具
    • 二进制包 :从官网下载每个组件的二进制包,依次去安装,此方式对于理解kubernetes组件更加有效

    说明:现在需要安装kubernetes的集群环境,但是又不想过于麻烦,所以选择使用kubeadm方式

    主机规划

    作用 IP地址 操作系统 配置
    Master 192.168.160.128 Centos7.5 基础设施服务器 2颗CPU 2G内存 50G硬盘
    Node1 192.168.160.129 Centos7.5 基础设施服务器 2颗CPU 2G内存 50G硬盘
    Node2 192.168.160.130 Centos7.5 基础设施服务器 2颗CPU 2G内存 50G硬盘

    环境搭建

    本次环境搭建需要安装三台Centos服务器(一主二从),然后在每台服务器中分别安装docker(18.06.3),kubeadm(1.17.4)、kubelet(1.17.4)、kubectl(1.17.4)程序。
    

    主机安装

    安装虚拟机过程中注意下面选项的设置:

    • 操作系统环境:CPU(2C) 内存(2G) 硬盘(50G)

    • 语言选择:中文简体

    • 软件选择:基础设施服务器

    • 分区选择:自动分区

    • 网络配置:按照下面配置网路地址信息

      网络地址:192.168.160.128  (每台主机都不一样  分别为128、129、130)
      子网掩码:255.255.255.0
      默认网关:192.168.160.2
      DNS:    114.114.114.114
      

    环境初始化

    1. 检查操作系统的版本
    # 此方式下安装kubernetes集群要求Centos版本要在7.5或之上
    [root@master ~]# cat /etc/redhat-release
    CentOS Linux release 7.5.1804 (Core)
    

    2) 主机名解析

    为了方便后面集群节点间的直接调用,在这配置一下主机名解析,企业中推荐使用内部DNS服务器

    # 主机名成解析 编辑三台服务器的/etc/hosts文件,添加下面内容
    192.168.160.128 master
    192.168.160.129 node1
    192.168.160.130 node2
    

    3) 时间同步

    kubernetes要求集群中的节点时间必须精确一致,这里直接使用chronyd服务从网络同步时间。

    企业中建议配置内部的时间同步服务器

    # 启动chronyd服务
    [root@master ~]# systemctl start chronyd
    # 设置chronyd服务开机自启
    [root@master ~]# systemctl enable chronyd
    # chronyd服务启动稍等几秒钟,就可以使用date命令验证时间了
    [root@master ~]# date
    

    4) 禁用iptables和firewalld服务

    kubernetes和docker在运行中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

    # 1 关闭firewalld服务
    [root@master ~]# systemctl stop firewalld
    [root@master ~]# systemctl disable firewalld
    # 2 关闭iptables服务
    [root@master ~]# systemctl stop iptables
    [root@master ~]# systemctl disable iptables
    

    5) 禁用selinux

    selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题

    # 编辑 /etc/selinux/config 文件,修改SELINUX的值为disabled
    # 注意修改完毕之后需要重启linux服务
    SELINUX=disabled
    

    6) 禁用swap分区

    swap分区指的是虚拟内存分区,它的作用是在物理内存使用完之后,将磁盘空间虚拟成内存来使用

    启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备

    但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明

    # 编辑分区配置文件/etc/fstab,注释掉swap分区一行
    # 注意修改完毕之后需要重启linux服务
     UUID=455cc753-7a60-4c17-a424-7741728c44a1 /boot    xfs     defaults        0 0
     /dev/mapper/centos-home /home                      xfs     defaults        0 0
    # /dev/mapper/centos-swap swap                      swap    defaults        0 0
    

    7)修改linux的内核参数

    # 修改linux的内核参数,添加网桥过滤和地址转发功能
    # 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
    net.bridge.bridge-nf-call-ip6tables = 1
    net.bridge.bridge-nf-call-iptables = 1
    net.ipv4.ip_forward = 1
    
    # 重新加载配置
    [root@master ~]# sysctl -p
    
    # 加载网桥过滤模块
    [root@master ~]# modprobe br_netfilter
    
    # 查看网桥过滤模块是否加载成功
    [root@master ~]# lsmod | grep br_netfilter
    

    8)配置ipvs功能

    在kubernetes中service有两种代理模型,一种是基于iptables的,一种是基于ipvs的

    两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

    # 1 安装ipset和ipvsadm
    [root@master ~]# yum install ipset ipvsadmin -y
    
    # 2 添加需要加载的模块写入脚本文件
    [root@master ~]# cat <<EOF >  /etc/sysconfig/modules/ipvs.modules
    #!/bin/bash
    modprobe -- ip_vs
    modprobe -- ip_vs_rr
    modprobe -- ip_vs_wrr
    modprobe -- ip_vs_sh
    modprobe -- nf_conntrack_ipv4
    EOF
    
    # 3 为脚本文件添加执行权限
    [root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules
    
    # 4 执行脚本文件
    [root@master ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules
    
    # 5 查看对应的模块是否加载成功
    [root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4
    

    9) 重启服务器

    上面步骤完成之后,需要重新启动linux系统

    [root@master ~]# reboot
    

    安装docker

    # 1 切换镜像源
    [root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
    
    # 2 查看当前镜像源中支持的docker版本
    [root@master ~]# yum list docker-ce --showduplicates
    
    # 3 安装特定版本的docker-ce
    # 必须指定--setopt=obsoletes=0,否则yum会自动安装更高版本
    [root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y
    
    # 4 添加一个配置文件
    # Docker在默认情况下使用的Cgroup Driver为cgroupfs,而kubernetes推荐使用systemd来代替cgroupfs
    [root@master ~]# mkdir /etc/docker
    [root@master ~]# cat <<EOF >  /etc/docker/daemon.json
    {
      "exec-opts": ["native.cgroupdriver=systemd"],
      "registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]
    }
    EOF
    
    # 5 启动docker
    [root@master ~]# systemctl restart docker
    [root@master ~]# systemctl enable docker
    
    # 6 检查docker状态和版本
    [root@master ~]# docker version
    

    安装kubernetes组件

    # 由于kubernetes的镜像源在国外,速度比较慢,这里切换成国内的镜像源
    # 编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置 
    [kubernetes]
    name=Kubernetes
    baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
    enabled=1
    gpgcheck=0
    repo_gpgcheck=0
    gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
           http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
    
    # 安装kubeadm、kubelet和kubectl
    [root@master ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y
    
    # 配置kubelet的cgroup
    # 编辑/etc/sysconfig/kubelet,添加下面的配置
    KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
    KUBE_PROXY_MODE="ipvs"
    
    # 4 设置kubelet开机自启
    [root@master ~]# systemctl enable kubelet
    

    准备集群镜像

    # 在安装kubernetes集群之前,必须要提前准备好集群需要的镜像,所需镜像可以通过下面命令查看
    [root@master ~]# kubeadm config images list
    
    # 下载镜像
    #直接在命令行执行即可
    # 此镜像在kubernetes的仓库中,由于网络原因,无法连接,下面提供了一种替代方案
    images=(
        kube-apiserver:v1.17.4
        kube-controller-manager:v1.17.4
        kube-scheduler:v1.17.4
        kube-proxy:v1.17.4
        pause:3.1
        etcd:3.4.3-0
        coredns:1.6.5
    )
    
    for imageName in ${images[@]} ; do
    	docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
    	docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName 		k8s.gcr.io/$imageName 
    	docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
    done
    

    集群初始化

    下面开始对集群进行初始化,并将node节点加入到集群中

    下面的操作只需要在master节点上执行即可

    # 创建集群
    [root@master ~]# kubeadm init 
    	--kubernetes-version=v1.17.4 
        --pod-network-cidr=10.244.0.0/16 
        --service-cidr=10.96.0.0/12 
        --apiserver-advertise-address=192.168.160.128 (matser节点ip地址)
    
    # 创建必要文件
    [root@master ~]# mkdir -p $HOME/.kube
    [root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
    [root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
    

    下面的操作只需要在node节点上执行即可

    # 将node节点加入集群
    [root@node1 ~]# kubeadm join 192.168.160.128:6443 --token 34ss36.7e8h7hsbnofdefo4     --discovery-token-ca-cert-hash sha256:97b77e042abaabf3e7d3df7f10c1932da2cc6b385791496af131165acae99db4
    [root@node2 ~]#kubeadm join 192.168.160.128:6443 --token 34ss36.7e8h7hsbnofdefo4     --discovery-token-ca-cert-hash sha256:97b77e042abaabf3e7d3df7f10c1932da2cc6b385791496af131165acae99db4
    	
    # 查看集群状态 此时的集群状态为NotReady,这是因为还没有配置网络插件
    [root@master ~]# kubectl get nodes
    NAME     STATUS     ROLES    AGE     VERSION
    master   NotReady   master   6m43s   v1.17.4
    node1    NotReady   <none>   22s     v1.17.4
    node2    NotReady   <none>   19s     v1.17.4
    

    安装网络插件

    kubernetes支持多种网络插件,比如flannel、calico、canal等等,任选一种使用即可,本次选择flannel

    下面操作依旧只在master节点执行即可,插件使用的是DaemonSet的控制器,它会在每个节点上都运行

    # 获取fannel的配置文件
    [root@master ~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
    
    
    # 使用配置文件启动fannel
    [root@master ~]# kubectl apply -f kube-flannel.yml
    
    # 稍等片刻,再次查看集群节点的状态
    [root@master ~]# kubectl get node
    NAME     STATUS   ROLES    AGE   VERSION
    master   Ready    master   26d   v1.17.4
    node1    Ready    <none>   26d   v1.17.4
    node2    Ready    <none>   26d   v1.17.4
    #在node节点执行kubectl命令
    scp -r $HOME/.kube  node1:$HOME/
    scp -r $HOME/.kube  node2:$HOME/
    #在node节点执行kubectl命令
    [root@node1 ~]# kubectl get node
    NAME     STATUS   ROLES    AGE   VERSION
    master   Ready    master   26d   v1.17.4
    node1    Ready    <none>   26d   v1.17.4
    node2    Ready    <none>   26d   v1.17.4
    [root@node2 ~]# kubectl get node
    NAME     STATUS   ROLES    AGE   VERSION
    master   Ready    master   26d   v1.17.4
    node1    Ready    <none>   26d   v1.17.4
    node2    Ready    <none>   26d   v1.17.4
    

    至此,kubernetes的集群环境搭建完成

    需要k8s学习笔记,关注微信公众号后台回复k8s即可获取

  • 相关阅读:
    【大数据面试之对线面试官】MapReduce/HDFS/YARN面试题70连击
    2021年最新版大数据面试题全面总结-持续更新
    Hbase性能优化百科全书
    【大数据面试题】Flink第一弹60连发
    DockerFile
    Docker容器数据卷
    Docker入门
    八、Sentinel服务保护框架
    七、Gateway高可用集群与动态网关
    五、Nacos集群部署实现原理
  • 原文地址:https://www.cnblogs.com/xiaozhang1995/p/15124284.html
Copyright © 2011-2022 走看看