本文构建kubernetes1.10.4HA高可用集群使用Ansible脚本安装K8S集群,介绍组件交互原理,方便直接,不受国内网络环境影响
开源地址: https://github.com/gjmzj/kubeasz
部署过程如下:
1、准备设备
master01主机作为部署节点,master01、master02作为集群中master节点,node01、node02作为集群中node节点,设备全部安装centos7系统
2、前期准备
需要安装python、epel源、关闭防火墙、selinux等
3、准备好部署节点的环境
在master01上安装git、ansible
[root@master01 ~]# yum install -y git ansible
配置从master01到master01、master02、node01、node02节点免密码登录
[root@master01 ~]# ssh-keygen -t rsa -P '' [root@master01 ~]# ssh-copy-id -i 172.16.1.151 [root@master01 ~]# ssh-copy-id -i 172.16.1.152 [root@master01 ~]# ssh-copy-id -i 172.16.1.153 [root@master01 ~]# ssh-copy-id -i 172.16.1.154
主备ansible脚本,下载地址:https://pan.baidu.com/s/1-4GwQW0Yy9swCcxv_aanKw
下载下来后,将解压内容放到 /etc/ansible/
[root@master01 ansible]# ls 01.prepare.yml 07.cluster-addon.yml 99.clean.yml hosts 02.etcd.yml 11.harbor.yml ansible.cfg manifests 03.docker.yml 20.addnode.yml bin pics 04.kube-master.yml 21.addmaster.yml docs README.md 05.kube-node.yml 22.upgrade.yml down roles 06.network.yml 90.setup.yml example tools
按需修改 hosts 文件,分配集群角色。注意 LB 的网卡接口信息需要跟实际机器保持一致
[root@master01 ansible]# vim hosts # 部署节点:运行这份 ansible 脚本的节点 [deploy] 172.16.1.251 # etcd集群请提供如下NODE_NAME,注意etcd集群必须是1,3,5,7...奇数个节点 [etcd] 172.16.1.251 NODE_NAME=etcd1 172.16.1.252 NODE_NAME=etcd2 172.16.1.253 NODE_NAME=etcd3 [kube-master] 172.16.1.251 172.16.1.252 # 负载均衡至少两个节点,安装 haproxy+keepalived # 如果是公有云环境请优先使用云上负载均衡,lb组留空 [lb] 172.16.1.251 LB_IF="eth0" LB_ROLE=backup # 注意根据实际使用网卡设置 LB_IF变量 172.16.1.252 LB_IF="eth0" LB_ROLE=master [kube-node] 172.16.1.253 172.16.1.254 # 如果启用harbor,请配置后面harbor相关参数 [harbor] #192.168.1.8 # 预留组,后续添加master节点使用 [new-master] #192.168.1.5 # 预留组,后续添加node节点使用 [new-node] #192.168.1.xx [all:vars] # ---------集群主要参数--------------- #集群部署模式:allinone, single-master, multi-master DEPLOY_MODE=multi-master #集群主版本号,目前支持: v1.8, v1.9, v1.10 K8S_VER="v1.10" # 集群 MASTER IP即 LB节点VIP地址,为区别与默认apiserver端口,设置VIP监听的服务端口8443 # 公有云上请使用云负载均衡内网地址和监听端口 MASTER_IP="172.16.1.250" KUBE_APISERVER="https://{{ MASTER_IP }}:8443" #TLS Bootstrapping 使用的 Token,使用 head -c 16 /dev/urandom | od -An -t x | tr -d ' ' 生成 BOOTSTRAP_TOKEN="8c8dfa79792f34d7f62c4df15acdb07a" # 集群网络插件,目前支持calico, flannel, kube-router CLUSTER_NETWORK="calico" # 默认使用kube-proxy, 可选SERVICE_PROXY="IPVS" (前提是网络选择kube-router) SERVICE_PROXY="kube-proxy" # 服务网段 (Service CIDR),注意不要与内网已有网段冲突 SERVICE_CIDR="10.68.0.0/16" # POD 网段 (Cluster CIDR),注意不要与内网已有网段冲突 CLUSTER_CIDR="172.20.0.0/16" # 服务端口范围 (NodePort Range) NODE_PORT_RANGE="20000-40000" # kubernetes 服务 IP (预分配,一般是 SERVICE_CIDR 中第一个IP) CLUSTER_KUBERNETES_SVC_IP="10.68.0.1" # 集群 DNS 服务 IP (从 SERVICE_CIDR 中预分配) CLUSTER_DNS_SVC_IP="10.68.0.2" # 集群 DNS 域名 CLUSTER_DNS_DOMAIN="cluster.local." # etcd 集群间通信的IP和端口, 根据etcd组成员自动生成 TMP_NODES="{% for h in groups['etcd'] %}{{ hostvars[h]['NODE_NAME'] }}=https://{{ h }}:2380,{% endfor %}" ETCD_NODES="{{ TMP_NODES.rstrip(',') }}" # etcd 集群服务地址列表, 根据etcd组成员自动生成 TMP_ENDPOINTS="{% for h in groups['etcd'] %}https://{{ h }}:2379,{% endfor %}" ETCD_ENDPOINTS="{{ TMP_ENDPOINTS.rstrip(',') }}" # 集群basic auth 使用的用户名和密码 BASIC_AUTH_USER="admin" BASIC_AUTH_PASS="ctsi1234" # ---------附加参数-------------------- #默认二进制文件目录 bin_dir="/opt/kube/bin" #证书目录 ca_dir="/etc/kubernetes/ssl" #部署目录,即 ansible 工作目录,建议不要修改 base_dir="/etc/ansible" #私有仓库 harbor服务器 (域名或者IP) #HARBOR_IP="192.168.1.8" #HARBOR_DOMAIN="harbor.yourdomain.com"
4、开始部署集群
[root@master01 ansible]# ansible all -m ping [root@master01 ansible]# ansible-playbook 01.prepare.yml [root@master01 ansible]# ansible-playbook 02.etcd.yml [root@master01 ansible]# ansible-playbook 03.docker.yml [root@master01 ansible]# ansible-playbook 04.kube-master.yml [root@master01 ansible]# ansible-playbook 05.kube-node.yml [root@master01 ansible]# ansible-playbook 06.network.yml [root@master01 ansible]# ansible-playbook 07.cluster-addon.yml
5、命令环境配置
默认ansible 把相关命令文件都放到 /opt/kube/bin 下了,我们可以配置下环境变量,便于直接使用。
[root@master01 ansible]# vim /etc/profile export PATH=.:/opt/kube/bin:$PATH [root@master01 ansible]# source /etc/profile
6、部署 dashboard
[root@master01 ~]# kubectl create -f /etc/ansible/manifests/dashboard/kubernetes-dashboard.yaml [root@master01 ~]# kubectl create -f /etc/ansible/manifests/dashboard/ui-admin-rbac.yaml [root@master01 ~]# kubectl create -f /etc/ansible/manifests/dashboard/ui-read-rbac.yaml #创建访问 token (admin) [root@master01 ~]# kubectl create -f /etc/ansible/manifests/dashboard/admin-user-sa-rbac.yaml [root@master01 ~]# kubectl -n kube-system describe secret $(kubectl -n kube-system get secret | grep admin-user | awk '{print $1}') Name: admin-user-token-5xkxt Namespace: kube-system Labels: <none> Annotations: kubernetes.io/service-account.name=admin-user kubernetes.io/service-account.uid=af3ff909-8f90-11e8-a9a1-000c2958364a Type: kubernetes.io/service-account-token Data ==== ca.crt: 1346 bytes namespace: 11 bytes token: eyJhbGciOiJSUzI1NiIsImtpZCI6IiJ9.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJhZG1pbi11c2VyLXRva2VuLTV4a3h0Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQubmFtZSI6ImFkbWluLXVzZXIiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC51aWQiOiJhZjNmZjkwOS04ZjkwLTExZTgtYTlhMS0wMDBjMjk1ODM2NGEiLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6a3ViZS1zeXN0ZW06YWRtaW4tdXNlciJ9.UnM6Pxb8JsUxlZCNwAJs9skB-gqK_ACe9xnHqio9zJ6pKl1vKTPNhNDVFonjvCmvtWYced6-yIau2ZqZ64SqlhDPlRAbtioJE45xpf25TCQkj4mcwfQw36avGqx7pyVpotlfctZR2kdALSLIsf0dB25DHvlcrUuQNxuA9LxpgcYIOqIcDZMtNm6FcmNujTjM7iR7jt8Daj7g7sp9kP6MYN4PG-R-fKvkTk6bcG4P6GUJnanetOw2Im_qP8z39A58rrPcMWQulbbMTh3lW4cdad38OIeUjXdfE_N3SSqn2WnM1Zx0HEOuOnT56hsSLWA17_4X1G8peRIaZoNXYZYSJg
7、访问dashboard
查看dashboard的访问地址:kubectl cluster-info
[root@master01 ~]# kubectl cluster-info Kubernetes master is running at https://172.16.1.250:8443 CoreDNS is running at https://172.16.1.250:8443/api/v1/namespaces/kube-system/services/coredns:dns/proxy kubernetes-dashboard is running at https://172.16.1.250:8443/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy
浏览器访问https://172.16.1.250:8443/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy
选择 令牌 登陆,输入上面生成的 token,即可登入系统