zoukankan      html  css  js  c++  java
  • HBase集群搭建

    HBase集群搭建

    上传解压

    (1)      上传hbase安装包,这里使用的是1.3.1

    点击这里下载hbase-1.3.1-bin.tar.gz

    上传到/export/software文件夹下(没有文件夹,自己创建mkdir /export/software,之后的就不在赘述)

    (2)      解压

    tar -zxvf /export/software/hbase-1.3.1-bin.tar.gz -C /export/servers

    配置hbase集群

    把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下

    cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
    cp hdfs-site.xml core-site.xml /export/servers/hbase-1.3.1/conf

    进入hbase的conf目录下

    cd /export/servers/hbase/conf

    修改hbase-env.sh

    过滤查看cat hbase-env.sh |grep -v "#"(修改后的结果)

    vi hbase-env.sh

    在hbash-env.sh中修改这两条

    export JAVA_HOME=/usr/java/jdk1.8.0

        //告诉hbase能使用外部的zk集群(而不是仅仅使用自己的)

     export HBASE_MANAGES_ZK=false

     修改hbase-site.xml

    vi hbase-site.xml

    我这里使用的是node01(虚拟机的第一台主机)

    <configuration>

     <!-- 指定hbase在HDFS上存储的路径 -->

            <property>

                    <name>hbase.rootdir</name>

                    <value>hdfs://node01:8020/hbase</value>

            </property>

     <!-- 指定hbase是分布式的 -->

            <property>

                    <name>hbase.cluster.distributed</name>

                    <value>true</value>

            </property>

     <!-- 指定zk的地址,多个用“,”分割 -->

            <property>

                    <name>hbase.zookeeper.quorum</name>

                    <value>node01:2181,node02:2181,node03:2181</value>

            </property>

            <property>     

         <name>hbase.zookeeper.property.clientPort</name>     

         <value>2181</value>   

      </property>

    <!--指定hbase管理页面-->

                  <property>

                  <name>hbase.master.info.port</name>

                  <value>60010</value>

                  </property>

           </configuration>

    修改 vi regionservers(这里是我的3台虚拟机的主机名)

    node01

    node02

    node03

     分发安装文件并启动

    scp -r /export/servers/ hbase-1.3.1/ node02:/export/servers
    
    scp -r /export/servers/ hbase-1.3.1/ node03:/export/servers

    先启动zookeeper集群

    然后在启动hadoop(hdfs集群)

    因为hbase基于hdfs,hbase的元数据存储在zookeeper

    最后启动:hbase

    cd /export/servers/hbase-1.3.1/bin
    
    ./start-hbase.sh

    测试访问node01:60010

    这是成功的信号。

  • 相关阅读:
    Linux常用命令2
    Linux常用命令1
    Nginx配置Kafka
    SpringBoot整合Druid
    spring boot jpa
    mybatis-plus_2
    copy data to map
    HashMap容量问题
    在SpringBoot主启动类中获取实例化的Bean
    Linux环境中Rsync增量备份文件
  • 原文地址:https://www.cnblogs.com/BigDataBugKing/p/11171961.html
Copyright © 2011-2022 走看看