zoukankan      html  css  js  c++  java
  • K8S环境快速部署Kafka(K8S外部可访问)

    欢迎访问我的GitHub

    https://github.com/zq2599/blog_demos

    内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;

    如何快速部署

    1. 借助Helm,只需少量操作即可部署kafka;
    2. kafka和zookeeper对存储都有需求,若提前准备了StorageClass,存储一事则变得十分简单

    参考文章

    本次实战涉及到的K8S、Helm、NFS、StorageClass等前置条件,它们的安装和使用请参考:

    1. 《kubespray2.11安装kubernetes1.15》
    2. 《部署和体验Helm(2.16.1版本)》
    3. 《Ubuntu16环境安装和使用NFS》
    4. 《K8S使用群晖DS218+的NFS》
    5. 《K8S的StorageClass实战(NFS)》

    环境信息

    本次实战的操作系统和软件的版本信息如下:

    1. Kubernetes:1.15
    2. Kubernetes宿主机:CentOS Linux release 7.7.1908
    3. NFS服务:IP地址192.168.50.135,文件夹/volume1/nfs-storageclass-test
    4. Helm:2.16.1
    5. Kafka:2.0.1
    6. Zookeeper:3.5.5

    接下来的实战之前,请您准备好:K8S、Helm、NFS、StorageClass;

    操作

    1. 添加helm仓库(该仓库中有kafka):helm repo add incubator http://storage.googleapis.com/kubernetes-charts-incubator
    2. 下载kafka的chart:helm fetch incubator/kafka
    3. 下载成功后当前目录有个压缩包:kafka-0.20.8.tgz,解压:tar -zxvf kafka-0.20.8.tgz
    4. 进入解压后的kafka目录,编辑values.yaml文件,下面是具体的修改点:
    5. 首先要设置在K8S之外的也能使用kafka服务,修改external.enabled的值,改为true

    在这里插入图片描述
    6. 找到configurationOverrides,下图两个黄框中的内容原本是注释的,请删除注释符号,另外,如果您之前设置过跨网络访问kafka,就能理解下面写入K8S宿主机IP的原因了:

    在这里插入图片描述
    7. 接下来设置数据卷,找到persistence,按需要调整大小,再设置已准备好的storageclass的名称:

    在这里插入图片描述
    8. 再设置zookeeper的数据卷:

    在这里插入图片描述
    9. 设置完成,开始部署,先创建namespace,执行:kubectl create namespace kafka-test
    10. 在kafka目录下执行:helm install --name-template kafka -f values.yaml . --namespace kafka-test
    11. 如果前面的配置没有问题,控制台提示如下所示:

    在这里插入图片描述
    12. kafka启动依赖zookeeper,整个启动会耗时数分钟,期间可见zookeeper和kafka的pod逐渐启动:

    在这里插入图片描述
    13. 查看服务:kubectl get services -n kafka-test,如下图红框所示,通过宿主机IP:31090、宿主机IP:31091、宿主机IP:31092即可从外部访问kafka:

    在这里插入图片描述
    14. 查看kafka版本:kubectl exec kafka-0 -n kafka-test -- sh -c 'ls /usr/share/java/kafka/kafka_*.jar' ,如下图红框所示,scala版本2.11,kafka版本2.0.1

    在这里插入图片描述

    1. kafka启动成功后,咱们来验证服务是否正常;

    对外暴露zookeeper

    1. 为了远程操作kafka,有时需要连接到zookeeper,所以需要将zookeeper也暴露出来;
    2. 创建文件zookeeper-nodeport-svc.yaml,内容如下:
    apiVersion: v1
    kind: Service
    metadata:
      name: zookeeper-nodeport
      namespace: kafka-test
    spec:
      type: NodePort
      ports:
           - port: 2181
             nodePort: 32181
      selector:
        app: zookeeper
        release: kafka
    
    1. 执行命令:kubectl apply -f zookeeper-nodeport-svc.yaml
    2. 查看服务,发现已经可以通过宿主机IP:32181访问zookeeper了,如下图:
      在这里插入图片描述

    验证kafka服务

    找一台电脑安装kafka包,就能通过里面自带的命令远程连接和操作K8S的kafka了:

    1. 访问kafka官网:http://kafka.apache.org/downloads ,刚才确定了scala版本2.11,kafka版本2.0.1,因此下载下图红框中的版本:

    在这里插入图片描述
    2. 下载后解压,进入目录kafka_2.11-2.0.1/bin
    3. 查看当前topic:

    ./kafka-topics.sh --list --zookeeper 192.168.50.135:32181
    

    如下图,空空如也:

    在这里插入图片描述
    4. 创建topic:

    ./kafka-topics.sh --create --zookeeper 192.168.50.135:32181 --replication-factor 1 --partitions 1 --topic test001
    

    如下图,创建成功后再查看topic终于有内容了:

    在这里插入图片描述
    5. 查看名为test001的topic:

    ./kafka-topics.sh --describe --zookeeper 192.168.50.135:32181 --topic test001
    

    在这里插入图片描述
    6. 进入创建消息的交互模式:

    ./kafka-console-producer.sh --broker-list 192.168.50.135:31090 --topic test001
    

    进入交互模式后,输入任何字符串再输入回车,就会将当前内容作为一条消息发送出去:

    在这里插入图片描述
    7. 再打开一个窗口,执行命令消费消息:

    ./kafka-console-consumer.sh --bootstrap-server 192.168.50.135:31090 --topic test001 --from-beginning
    

    在这里插入图片描述
    8. 再打开一个窗口,执行命令查看消费者group:

    ./kafka-consumer-groups.sh --bootstrap-server 192.168.50.135:31090 --list
    

    如下图可见groupid等于console-consumer-21022

    在这里插入图片描述
    9. 执行命令查看groupid等于console-consumer-21022的消费情况:

    ./kafka-consumer-groups.sh --group console-consumer-21022 --describe --bootstrap-server 192.168.50.135:31090
    

    如下图所示:

    在这里插入图片描述
    远程连接kafka体验基本功能完毕,查看、收发消息都正常,证明本次部署成功;

    kafkacat连接

    1. kafkacat是个客户端工具,我这里是在MacBook Pro上用brew安装的;
    2. 我这里K8S服务器IP是192.168.50.135,因此执行此命令查看kafka信息:kafkacat -b 192.168.50.135:31090 -L,如下图,可以看到broker信息,以及topic信息(一个是test001,还有一个是consumer的offset),把端口换成3109131092会连接到另外两个broker,也能得到相同信息:

    在这里插入图片描述

    清理资源

    本次实战创建了很多资源:rbac、role、serviceaccount、pod、deployment、service,下面的脚本可以将这些资源清理掉(只剩NFS的文件没有被清理掉):

    helm del --purge kafka
    kubectl delete service zookeeper-nodeport -n kafka-test
    kubectl delete storageclass managed-nfs-storage
    kubectl delete deployment nfs-client-provisioner -n kafka-test
    kubectl delete clusterrolebinding run-nfs-client-provisioner
    kubectl delete serviceaccount nfs-client-provisioner -n kafka-test
    kubectl delete role leader-locking-nfs-client-provisioner -n kafka-test
    kubectl delete rolebinding leader-locking-nfs-client-provisioner -n kafka-test
    kubectl delete clusterrole nfs-client-provisioner-runner
    kubectl delete namespace kafka-test
    

    至此,K8S环境部署和验证kafka的实战就完成了,希望能给您提供一些参考;

    欢迎关注公众号:程序员欣宸

    微信搜索「程序员欣宸」,我是欣宸,期待与您一同畅游Java世界...
    https://github.com/zq2599/blog_demos

  • 相关阅读:
    呕心沥血,nginx自动重启脚本唯一值
    tar打包命令,过滤某类文件命令
    Linux/centos/ubuntu全系列 配置 history 命令显示操作时间、用户和登录 IP大全
    nginx-301/304/302-目录、文件跳转那些事之温习
    2021/4/28最新elk7.12搭建配置grok正则及坑总结!
    nginx配置上线直播【移动端/pc分别访问】
    Postgresql 导入导出/创建库等基本使用小记,一看就懂,一学就会!
    MangoDB 容器备份一看就懂,一学就会!
    ignav中IMU与GNSS间的杆臂
    RTKLIB中质量控制函数之——testsnr()函数
  • 原文地址:https://www.cnblogs.com/bolingcavalry/p/13917562.html
Copyright © 2011-2022 走看看