zoukankan      html  css  js  c++  java
  • hbase集群搭建

    环境:

    两台虚拟机:

    192.168.99.129 master

    192.168.99.130 slave1

    1、下载解压

    2、编辑conf/hbase-env.sh

    export JAVA_HOME=/usr/java/jdk1.8.0_112
    export HBASE_MANAGES_ZK=false

    3、编辑conf/hbase-site.xml

    <configuration>
            <property>
                <name>hbase.rootdir</name>
                <value>file:///root/hbase/data/hbase</value>
            </property>
            <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
            </property>
            <property>
                <name>hbase.rootdir</name>
                <value>hdfs://192.168.99.129:9000/hbase</value>
            </property>
            <property>
                <name>hbase.zookeeper.quorum</name>
                <value>192.168.99.129</value>
            </property>
            <property>
                <name>hbase.zookeeper.property.clientPort</name>
                <value>2181</value>
            </property>
            <property>
                <name>hbase.zookeeper.property.dataDir</name>
                <value>/root/zookeeper/dataDir</value>
            </property>
        </configuration>

      

      1)hbase.cluster.distributed指定了Hbase的运行模式。false是单机模式,true是分布式模式。
      2)hbase.rootdir目录是region server的共享目录,用来持久化Hbase。注意:注意主机名和端口号要与hadoop的dfs name的对应
      3)hbase.zookeeper.quorum是Zookeeper集群的地址列表,用逗号分割。

    4、编辑conf/backup-masters(添加一个备份master)

    192.168.99.130

    5、编辑conf/regionservers(添加数据节点)

    192.168.99.130
  • 相关阅读:
    对Spark硬件配置的建议
    Hadoop调优 | NameNode主备宕机引发的思考
    系统解析Apache Hive
    Spark集群和任务执行
    Redis中的一致性哈希问题
    Java并发队列与容器
    重要 | Spark和MapReduce的对比,不仅仅是计算模型?
    Redis从入门到精通
    LeaFlet自定义控件
    java学习的一些琐碎知识点
  • 原文地址:https://www.cnblogs.com/puroc/p/6041967.html
Copyright © 2011-2022 走看看