zoukankan      html  css  js  c++  java
  • K8s之spinnaker

    一、spinnaker概述

    1、spinnaker是netflix开源的一款云发布CI/CD,其前身是Asgard,spinnaker支持各种部署目标,包括OpenStack、DC/OS、Kubernetes 和 Cloud Foundry等。

    2、功能概述
      & 通过灵活和可配置 Pipelines,实现可重复的自动化部署;
      & 提供所有环境的全局视图,可随时查看应用程序在其部署 Pipeline 的状态;
      & 通过一致且可靠的 API ,提供可编程配置;
      & 易于配置、维护和扩展;
      & 具有操作伸缩性;
      & 兼容 Asgard 特性,原用户不用迁移。

    3、组件概述

      
      & Deck:面向用户 UI 界面组件,提供直观简介的操作界面,可视化操作发布部署流程。
      & API: 面向调用 API 组件,我们可以不使用提供的 UI,直接调用 API 操作,由它后台帮我们执行发布等任务。
      & Gate:是 API 的网关组件,可以理解为代理,所有请求由其代理转发。
      & Rosco:是构建 beta 镜像的组件,需要配置 Packer 组件使用。
      & Orca:是核心流程引擎组件,用来管理流程。
      & Igor:是用来集成其他 CI 系统组件,如 Jenkins 等一个组件。
      & Echo:是通知系统组件,发送邮件等信息。
      & Front50:是存储管理组件,需要配置 Redis、Cassandra 等组件使用。
      & Cloud driver 是它用来适配不同的云平台的组件,比如 Kubernetes,Google、AWS EC2、Microsoft Azure 等。
      & Fiat 是鉴权的组件,配置权限管理,支持 OAuth、SAML、LDAP、GitHub teams、Azure groups、 Google Groups 等。

    二、部署

    1、部署系统

        ubuntu   4 核 8G     系统版本:16.04 tls

    2、安装docker

     选择合适的版本,k8s使用的版本为docker-ce_17.06.

    下载docker:
       https://download.docker.com/linux/ubuntu/dists/xenial/pool/test/amd64/

    安装docker:

    # dpkg -i /data/docker-ce_17.06.2~ce-0~ubuntu-xenial_amd64.deb

    配置docker翻墙:
    配置自己的shadowsocks+privoxy,参考我的博客:https://www.cnblogs.com/cuishuai/p/8463458.html

    # mkdir /etc/systemd/system/docker.service.d/
    # cd /etc/systemd/system/docker.service.d/
    # cat http-proxy.conf
    [Service]
    Environment="HTTP_PROXY=http://10.10.23.4:8118" "NO_PROXY=localhost,127.0.0.1,0.0.0.0,10.10.29.3,10.10.25.29,172.11.0.0,172.10.0.0,172.11.0.0/16,172.10.0.0/16,10.,172.,10.10.23.4,10.96.0.0/12,10.244.0.0/16"

    # systemctl daemon-reload
    # systemctl restart docker

    3、使用kubeadm安装k8s

    为ubuntu系统换源,国内环境不翻墙下载不了,所以需要换一个源。

    # cat <<EOF > /etc/apt/sources.list.d/kubernetes.list
    deb http://mirrors.ustc.edu.cn/kubernetes/apt kubernetes-xenial main
    EOF

    # apt-get  update

    # apt-get install  kubeadm  kubectl  kubelet  ipvsadm

    默认安装的最新版本,我安装的是1.11.2.

    可以提前下载需要的镜像:

    k8s.gcr.io/kube-proxy-amd64:v1.11.2

    k8s.gcr.io/kube-controller-manager-amd64:v1.11.2

    k8s.gcr.io/kube-apiserver-amd64:v1.11.2

    k8s.gcr.io/kube-scheduler-amd64:v1.11.2

    k8s.gcr.io/coredns:1.1.3

    k8s.gcr.io/etcd-amd64:3.2.18

    k8s.gcr.io/pause:3.1

    quay.io/coreos/flannel:v0.10.0-amd64

    如果已经配置了翻墙,可以直接执行下面的初始化步骤。

    初始化k8s:

    # kubeadm init --kubernetes-version v1.11.2 --token-ttl 0

    --pod-network-cidr 10.244.0.0/16

    按照提示完成初始化操作,然后设置master可以deploy。

    # kubectl taint nodes --all node-role.kubernetes.io/master-

    如上图所示则表示启动正常。

    4、创建Account和NFS动态存储

    首先要搭建一个NFS服务,具体搭建过程参考我的另外一篇博客:https://www.cnblogs.com/cuishuai/p/7798154.html

    在现在的系统上安装客户端:

    # apt install nfs-kernel-server

    设置挂在点:

    # mount -t nfs  10.10.29.4:/data/opv  /data/opv -o proto=tcp -o nolock

     ##10.10.29.4:/data/opv 的/data/opv是nfs服务的共享目录,  后面的/data/opv是本机的挂在点。

    1)创建account用于helm部署服务


    ##创建tiller用户,用于helm安装授权
    # cat rbac.yaml
    apiVersion: v1
    kind: ServiceAccount
    metadata:
       name: tiller
       namespace: default
    ---
    apiVersion: rbac.authorization.k8s.io/v1beta1
    kind: ClusterRoleBinding
    metadata:
       name: tiller
    roleRef:
       apiGroup: rbac.authorization.k8s.io
       kind: ClusterRole
       name: cluster-admin
    subjects:
       - kind: ServiceAccount
         name: tiller
         namespace: default

    # kubectl  create -f  rbac.yaml


    ##创建default用户,用于spinnaker安装授权
    # cat default-rbac.yaml
    apiVersion: rbac.authorization.k8s.io/v1beta1
    kind: ClusterRoleBinding
    metadata:
       name: default
    roleRef:
       apiGroup: rbac.authorization.k8s.io
       kind: ClusterRole
       name: cluster-admin
    subjects:
       - kind: ServiceAccount
         name: default
         namespace: default

    # kubectl  create -f  default-rbac.yaml

    2)创建NFS动态存储

    !创建用户授权

    # cat serviceaccount.yaml
    apiVersion: v1
    kind: ServiceAccount
    metadata:
       name: nfs-provisioner

    # cat clusterrole.yaml
    kind: ClusterRole
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
       name: nfs-provisioner-runner
    rules:
       - apiGroups: [""]
          resources: ["persistentvolumes"]
          verbs: ["get", "list", "watch", "create", "delete"]
       - apiGroups: [""]
          resources: ["persistentvolumeclaims"]
          verbs: ["get", "list", "watch", "update"]
       - apiGroups: ["storage.k8s.io"]
          resources: ["storageclasses"]
          verbs: ["get", "list", "watch"]
       - apiGroups: [""]
          resources: ["events"]
          verbs: ["watch", "create", "update", "patch"]
       - apiGroups: [""]
          resources: ["services", "endpoints"]
          verbs: ["get"]
       - apiGroups: ["extensions"]
          resources: ["podsecuritypolicies"]
          resourceNames: ["nfs-provisioner"]
          verbs: ["use"]


    # cat clusterrolebinding.yaml
    kind: ClusterRoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
       name: run-nfs-provisioner
    subjects:
       - kind: ServiceAccount
         name: nfs-provisioner
         namespace: default
    roleRef:
       kind: ClusterRole
       name: nfs-provisioner-runner
       apiGroup: rbac.authorization.k8s.io

    # kubectl create -f serviceaccount.yaml -f clusterrole.yaml -f clusterrolebinding.yaml

    !创建deployment

    # cat deployment.yaml
    kind: Deployment
    apiVersion: extensions/v1beta1
    metadata:
       name: nfs-client-provisioner
    spec:
       replicas: 1
       strategy:
       type: Recreate
       template:
          metadata:
             labels:
                app: nfs-client-provisioner
          spec:
             serviceAccount: nfs-provisioner
             containers:
                - name: nfs-client-provisioner
                   image: registry.cn-hangzhou.aliyuncs.com/open-ali/nfs-client-provisioner
                   volumeMounts:
                      - name: nfs-client-root
    mountPath: /persistentvolumes
       env:
          - name: PROVISIONER_NAME
             value: fuseim.pri/ifs
          - name: NFS_SERVER
             value: 10.10.29.4
          - name: NFS_PATH
             value: /data/opv
       volumes:
          - name: nfs-client-root
             nfs:
                server: 10.10.29.4
                path: /data/opv

    !创建storageclass

    # cat storageclass.yaml
    apiVersion: storage.k8s.io/v1beta1
    kind: StorageClass
    metadata:
       name: managed-nfs-storage
    provisioner: fuseim.pri/ifs

    # kubectl create -f deployment.yaml -f storageclass.yaml

    5、安装helm

    下载相应的二进制安装包

    https://github.com/helm/helm/releases

    解压加入到系统路径:

    #  wget https://storage.googleapis.com/kubernetes-helm/helm-v2.10.0-linux-amd64.tar.gz

    # tar xf helm-v2.10.0-linux-amd64.tar.gz

    # cp helm  /usr/local/bin

    初始化helm,安装tiller

    # helm init --upgrade --service-account tiller --tiller-namespace default -i registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:v2.10.0 --stable-repo-url https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts

    官网下载最新的charts。不要用aliyun的,版本太低,会报错。

    https://github.com/helm/charts/tree/master/stable/spinnaker

    修改charts里的storageclass为上面自己定义的:managed-nfs-storage

    root@skr:/data/spinnaker# ls charts/
    jenkins minio redis

    1)修改三个目录下的values.yaml文件,将storageclass/Storageclass名称修改为上面创建的managed-nfs-storage

    2)修改spinnaker目录下的values.yaml文件,将minio的imageTAG修改成和charts/minio目录下的values.yaml文件一样的。

    #vim  spinnaker/values.yaml

    minio:
    enabled: true
    imageTag: RELEASE.2018-03-16T22-52-12Z

    # vim spinnaker/charts/minio/values.yaml

    image:
    repository: minio/minio
    tag: RELEASE.2018-03-16T22-52-12Z

    定义自己的docker registry地址:
    #vim spinnaker/values.yaml
    accounts:
    - name: dockerhub
       address: https://index.docker.io

    address修改为自己的registry地址

    3)修改spinnaker目录下的values.yaml文件,修改kubeConfig

    kubectl create secret generic kubeconfig --from-file=/root/.kube/config

    kubeConfig:
    enabled: true
    secretName: kubeconfig
    secretKey: config
    # List of contexts from the kubeconfig to make available to Spinnaker
    contexts:
    - kubernetes-admin@kubernetes

    6、安装spinnaker:

    在spinnaker目录下面执行:
    # helm install -n spinnaker --tiller-namespace default ./ -f values.yaml --namespace default

      

      

      

    如果部署出问题了,可以使用如下命令删掉本次部署:

    # helm del --purge --tiller-namespace default spinnaker

    7、访问

    配置访问deck:
    查看pod的服务端口:
    # kubectl get pods spinnaker-spinnaker-deck-5d87d8d9f9-lswwv --template='{{(index (index .spec.containers 0).ports 0).containerPort}}{{" "}}'

    映射端口到本地,127.0.0.1:port可以访问服务。当然可以部署一个ingress代理访问,这里只是测试环境。

    # kubectl port-forward spinnaker-spinnaker-deck-5d87d8d9f9-lswwv 9000:9000

    由于这样暴漏的服务监听的127.0.0.1,所以为了使用服务,需要自己搞一个服务代理。这里我就使用nginx:

    ##spinnaker-spinnaker-deck-5d87d8d9f9-lswwv  是我的deck的pod的名称,这里需要写自己的。


    删除删不掉的pod:
    # kubectl delete pod pod-name --grace-period 0 --force

  • 相关阅读:
    C# Using MySQL
    C++ Asynchronous IO on Windows
    C++ Bind adapter usage
    C# Entity Framework with MSSQL, MYSQL
    Read a file into array for C++/C#
    上下移动 04.16
    盒子模型001基础
    JavaScript&JQ 001_五角星评分
    jQuery EasyUI tree的 使用
    自定义实现URL重写 04.18
  • 原文地址:https://www.cnblogs.com/cuishuai/p/9525656.html
Copyright © 2011-2022 走看看