zoukankan      html  css  js  c++  java
  • spark学习5(hbase集群搭建)

    第一步:Hbase安装

    hadoop,zookeeper前面都安装好了
    将hbase-1.1.3-bin.tar.gz上传到/usr/HBase目录下

    [root@spark1 HBase]# chmod u+x hbase-1.1.3-bin.tar.gz
    [root@spark1 HBase]# tar -zxvf hbase-1.1.3-bin.tar.gz
    [root@spark1 HBase]# mv hbase-1.1.3 hbase-1.1
    [root@spark1 ~]# vi/etc/profile #配置环境变量
    export HBASE_HOME=/usr/HBase/hbase-1.1
    export PATH=$PATH:$HBASE_HOME/bin
    [root@spark1 ~]# source /etc/profile #使其生效
    

    第二步:修改配置文件

    编辑 hbase-env.xml

    [root@spark1 conf]# vi hbase-env.sh
    # The java implementation to use.  Java 1.7+ required.
    export JAVA_HOME=/usr/java/jdk
    # Extra Java CLASSPATH elements.  Optional.
    export HBASE_CLASSPATH=/usr/HBase/hbase-1.1/conf
    # Tell HBase whether it should manage it's own instance of Zookeeper or not.
    export HBASE_MANAGES_ZK=false 使用HBASE自带的zookeeper管理集群用true,自己安装的用false
    
    
    

    编辑 hbase-site.xml

    
    [root@spark1 hbase-1.1]# mkdir tmp
    
    [root@spark1 hbase-1.1]# cd conf
    [root@spark1 conf]# vi hbase-site.xml
    
    
    <property>
    <name>hbase.tmp.dir</name>
    <value>/usr/HBase/hbase-1.1/tmp</value>
    </property>
    
    <!-- 指定hbase在HDFS上存储的路径 -->
    <property>
    <name>hbase.rootdir</name> 
    <value>hdfs://spark1:9000/hbase</value>
    </property>
    
    <!-- 打开 hbase 分布模式  -->  
    <property>
    <name>hbase.cluster.distributed</name> 
    <value>true</value>
    </property>
    
    <!-- 指定zk的地址,多个用“,”分割 -->  
    <property>
    <name>hbase.zookeeper.quorum</name> 
    <value>spark1,spark2,spark3</value>
    </property>
    
    
    
    

    编辑 regionservers

    [root@spark1 conf]# vi regionservers #添加从节点
    spark2
    spark3
    

    第三步:搭建hbase集群

    [root@spark1 usr]# scp -r HBase root@spark2:/usr/
    [root@spark1 usr]# scp -r HBase root@spark3:/usr/
    [root@spark1 ~]# scp -r /etc/profile root@spark2:/etc/ 
    [root@spark1 ~]# scp -r /etc/profile root@spark3:/etc/
    [root@spark2 ~]# source /etc/profile
    [root@spark3 ~]# source /etc/profile
    

    第四步:启动 / 关闭 Hbase 数据库集群

    启动前我先把hadoop启动和zookeeper启动

    [root@spark1 ~]# zkServer.sh start #三个节点都要启动
    [root@spark1 ~]# zkServer.sh status #查看是否启动成功
    [root@spark1 ~]# start-all.sh  #启动hadoop
    [root@spark1 ~]# start-hbase.sh 
    [root@spark1 ~]# stop-hbase.sh
    
    
    

    第五步:验证启动

    查看jps和hbase shell

    [root@spark1 ~]# jps
    [root@spark1 ~]# hbase shell
    status #查看状态
    version #查看版本
    
    

    image

  • 相关阅读:
    04747_Java语言程序设计(一)_第7章_图形、图像与多媒体
    04747_Java语言程序设计(一)_第6章_图形界面设计(二)
    04747_Java语言程序设计(一)_第5章_图形界面设计(一)
    04747_Java语言程序设计(一)_第4章_数组和字符串
    04747_Java语言程序设计(一)_第3章_面向对象编程基础
    04747_Java语言程序设计(一)_第2章_运算和语句
    04747_Java语言程序设计(一)_第1章_Java语言基础
    记事本写hello world_Java
    Java安装根目录
    input标签不能设置height
  • 原文地址:https://www.cnblogs.com/wujiadong2014/p/6184992.html
Copyright © 2011-2022 走看看