zoukankan      html  css  js  c++  java
  • 大数据高可用集群环境安装与配置(10)——安装Kafka高可用集群

    1. 获取安装包下载链接

    访问https://kafka.apache.org/downloads 找到kafka对应版本

    需要与服务器安装的scala版本一致(运行spark-shell可以看到当前安装的scala版本)

    2. 执行命令下载并安装

    cd /usr/local/src/
    wget https://www.apache.org/dyn/closer.cgi?path=/kafka/2.2.2/kafka_2.11-2.2.2.tgz
    tar -zxvf kafka_2.11-2.2.2.tgz
    mv kafka_2.11-2.2.2 /usr/local/kafka
    cd /usr/local/kafka/config
    mkdir -p /data/logs/kafka

    3. 修改server.properties配置

    vi server.properties

    修改下面配置

    # 每个kafka服务的broker.id值都需要设置,第一个为0,第二个为1,以此类推
    broker.id=0
    log.dirs=/data/logs/kafka
    # 设置kafka的分区数,这个根据具体情况而定(一般线上设置8个分区比较合适,因为分区不够时,启动再多的kafka客户端,只有设置数量的分区数能连上,其他的都在等待,而设置多一点分区,在实际运行时只启动两个客户端连接,它们也会自动切换读取数据)
    num.partitions=2
    # 设置kafka数据保留时间(单位:小时)--这里根据各自不同的使用场景设置保留时间
    log.retention.hours=72
    zookeeper.connect=master:2181,master-backup:2181

    4. 修改zookeeper.properties配置

    vi zookeeper.properties

    修改下面配置

    dataDir=/usr/local/zookeeper

    5. 修改服务器系统环境变量

    所有服务器都需要按要求修改配置

    vi /etc/profile

    在尾部添加下面配置

    export KAFKA_HOME=/usr/local/kafka
    export PATH=$KAFKA_HOME/bin:$PATH

    保存退出后,运行命令,让配置马上生效

    source /etc/profile

    6. 将kafka同步到master-backup服务器上

    rsync -avz /usr/local/kafka/ master-backup:/usr/local/kafka/

    修改server.properties配置

    vi server.properties

    将broker.id值修改为2

    broker.id=2

    7. 启动kafka服务

    在master与master-backup服务器上运行命令,启动kafka服务

    kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties

    8. kafka常用操作命令

    # 创建topic
    kafka-topics.sh --create --zookeeper master:2181,master-backup:2181 --topic sendTopic --partitions 2 --replication-factor 1
    
    # 查看topic
    kafka-topics.sh --list --zookeeper master:2181,master-backup:2181
    
    # 删除topic
    kafka-topics.sh --delete --topic sendTopic --zookeeper master:2181,master-backup:2181
    
    # 创建生产者
    kafka-console-producer.sh --broker-list master:9092,master-backup:9092 --topic sendTopic
    
    # 创建消费者
    kafka-console-consumer.sh --bootstrap-server master:9092,master-backup:9092 --topic sendTopic --from-beginning
    # 在所有生产端输入字符,所有消费端都可以接收到
    
    # 查看topic详细信息
    kafka-topics.sh --describe --zookeeper master:9092,slave1:9092,slave2:9092

    版权声明:本文原创发表于 博客园,作者为 AllEmpty 本文欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则视为侵权。

    作者博客:http://www.cnblogs.com/EmptyFS/

  • 相关阅读:
    【转+补充】在OpenCV for Android 2.4.5中使用SURF(nonfree module)
    Delphi StarOffice Framework Beta 1.0 发布
    Angular ngIf相关问题
    angularjs文档下载
    公众号微信支付开发
    公众号第三方平台开发 教程六 代公众号使用JS SDK说明
    公众号第三方平台开发 教程五 代公众号处理消息和事件
    公众号第三方平台开发 教程四 代公众号发起网页授权说明
    公众号第三方平台开发 教程三 微信公众号授权第三方平台
    公众号第三方平台开发 教程二 component_verify_ticket和accessToken的获取
  • 原文地址:https://www.cnblogs.com/EmptyFS/p/12113192.html
Copyright © 2011-2022 走看看