zoukankan      html  css  js  c++  java
  • zookeeper+kafka集群的安装部署

    准备工作

    上传 zookeeper-3.4.6.tar.gz、scala-2.11.4.tgz、kafka_2.9.2-0.8.1.1.tgz、slf4j-1.7.6.zip 至/usr/local目录

    zookeeper集群搭建

    解压zookeeper安装包

    # tar -zxvf zookeeper-3.4.6.tar.gz
    

    删除原压缩包

    # rm -rf zookeeper-3.4.6.tar.gz
    

    重命名

    # mv zookeeper-3.4.6 zk
    

    配置zookeeper相关的环境变量

    # vi /etc/profile
    
         export ZOOKEEPER_HOME=/usr/local/zk
    
         export PATH=$PATH:$ZOOKEEPER_HOME/bin
    
    # source /etc/profile
    

    ls 等命令无效

    export PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
    

    修改zookeeper配置文件

    # cd /usr/local/zk/conf
    # cp zoo_sample.cfg zoo.cfg
    # vi zoo.cfg
    修改:
        dataDir=/usr/local/zk/data
    新增:
        server.0=eshop-cache01:2888:3888	
        server.1=eshop-cache02:2888:3888
        server.2=eshop-cache03:2888:3888
    

    新建zookeeper的data数据文件

    # cd /usr/local/zk
    # mkdir data
    # cd data
    # vi myid  添加标识号:0
    

    其他集群节点重复上述配置即可,唯一不同的是标识号不同,可为1、2...

    启动zookeeper

    # zkServer.sh start
    

    查看zookeeper的状态

    # zkServer.sh status
    

    kafka集群搭建

    scala安装

    解压scala安装包

    # tar -zxvf scala-2.11.4.tgz
    

    重命名

    # mv scala-2.11.4 scala
    

    配置scala的环境变量

    # vi /etc/profile
        export SCALA_HOME=/usr/local/scala
        export PATH=$PATH:$SCALA_HOME/bin
    # source /etc/profile
    

    查看scala的version版本

    # scala -version
    

    kafka安装

    解压kafka安装包

    # tar -zxvf kafka_2.9.2-0.8.1.1.tgz
    

    重命名

    # mv kafka_2.9.2-0.8.1.1 kafka
    

    配置kafka

    # vi /usr/local/kafka/config/server.properties
         broker.id=0     //集群节点0、1、2依次增长的整数
         zookeeper.connect=192.168.27.11:2181,192.168.27.12:2181,192.168.27.13:2181
    

    kafka安装问题

    解决kafka的Unrecognized VM option 'UseCompressedOops'问题

    # vi /usr/local/kafka/bin/kafka-run-class.sh 
    	 if [ -z "$KAFKA_JVM_PERFORMANCE_OPTS" ]; then
    	   KAFKA_JVM_PERFORMANCE_OPTS="-server  -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true"
    	 fi
    	
        去掉-XX:+UseCompressedOops即可
    

    解决kafka因系统物理内存不足启动失败的问题

    # vi /usr/local/kafka/bin/kafka-server-start.sh
         export KAFKA_HEAP_OPTS="-Xmx256M -Xms128M"
    

    安装slf4j

    解压slf4j压缩包

    # unzip slf4j-1.7.6.zip
    

    复制 slf4j-nop-1.7.6.jar 至kafka的libs目录

    # cp /usr/local/slf4j-1.7.6/slf4j-nop-1.7.6.jar /usr/local/kafka/libs
    

    按照上述步骤在集群其他节点完成kafka的安装,唯一区别就是server.properties的broker.id,需设置不同的整数1、2...

    启动kafka

    # nohup /usr/local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties &
    

    查看启动日志

    # cat nohup.out
    

    检查kafka是否启动成功

    # jps
    

    完成各个节点的安装后,检查kafka集群是否搭建成功

    // 创建测试topic
    # /usr/local/kafka/bin/kafka-topics.sh --zookeeper 192.168.27.11:2181,192.168.27.12:2181,192.168.27.13:2181 --topic test --replication-factor 1 --partitions 1 --create
    
    // 创建生产者
    # /usr/local/kafka/bin/kafka-console-producer.sh --broker-list 192.168.27.11:9092,192.168.27.12:9092,192.168.27.13:9092 --topic test
    
    // 创建消费者
    # /usr/local/kafka/bin/kafka-console-consumer.sh --zookeeper 192.168.27.11:2181,192.168.27.12:2181,192.168.27.13:2181 --topic test --from-beginning
  • 相关阅读:
    《人月神话》读后感*part1
    《程序员修炼之道——从小工到专家》阅读笔记*part6
    Java课06
    《程序员修炼之道——从小工到专家》阅读笔记*part5
    《程序员修炼之道——从小工到专家》阅读笔记*part4
    Java课堂测试——输出单个文件中的前N个最常出现的英语单词
    四则运算自动出题系统——网页版
    关于JAVA项目中的常用的异常处理情况
    《程序员修炼之道——从小工到专家》阅读笔记*part3
    《程序员修炼之道——从小工到专家》阅读笔记*part2
  • 原文地址:https://www.cnblogs.com/fly4j/p/10226827.html
Copyright © 2011-2022 走看看