zoukankan      html  css  js  c++  java
  • HBASE安装

    1.上传压缩包

    2.解压

    3.修改环境变量

    1、  在master机器上执行下面命令:

    su – root

    vi/etc/profile

    添加内容:

    export HBASE_HOME= /root/app/hadoop/hbase-1.1.13

    export PATH=$PATH:$HBASE_HOME/bin

    执行命令:

    source /etc/profile

    su – hadoop

    2、在其他机器上执行上述操作。

     4.修改配置文件

    su – hadoop

    配置hbase目录下的conf文件夹里文件

    hbase-env.sh

    export JAVA_HOME=/usr/jdk   //jdk安装目录
    
    export HBASE_CLASSPATH=/home/hadoop/hadoop/conf   //hadoop配置文件的位置
    
    export HBASE_MANAGES_ZK=true   #如果使用独立安装的zookeeper这个地方就是false

     我的配置:

    # The java implementation to use.  Java 1.7+ required.
     export JAVA_HOME=/root/app/jdk/jdk1.8.0_152
    
    # Extra Java CLASSPATH elements.  Optional.
     export HBASE_CLASSPATH=/root/app/hadoop/hadoop-2.6.4/etc/hadoop/conf
    
    # Tell HBase whether it should manage it's own instance of Zookeeper or not.
    export HBASE_MANAGES_ZK=false

    hbase-site.xml

     1 <configuration>
     2 
     3   <property>
     4 
     5   <name>hbase.master</name>           #hbasemaster的主机和端口
     6 
     7   <value>master1:60000</value>
     8 
     9   </property>
    10 
    11   <property>
    12 
    13   <name>hbase.master.maxclockskew</name>    #时间同步允许的时间差
    14 
    15   <value>180000</value>
    16 
    17   </property>
    18 
    19   <property>
    20 
    21   <name>hbase.rootdir</name>
    22 
    23   <value>hdfs:// hadoop-cluster1/hbase</value>#hbase共享目录,持久化hbase数据
    24 
    25   </property>
    26 
    27   <property>
    28 
    29   <name>hbase.cluster.distributed</name>  #是否分布式运行,false即为单机
    30 
    31   <value>true</value>
    32 
    33   </property>
    34 
    35   <property>
    36 
    37   <name>hbase.zookeeper.quorum</name>#zookeeper地址
    38 
    39   <value>slave1, slave2,slave3</value>
    40 
    41   </property>
    42 
    43   <property>
    44 
    45   <name>hbase.zookeeper.property.dataDir</name>#zookeeper配置信息快照的位置
    46 
    47   <value>/home/hadoop/hbase/tmp/zookeeper</value>
    48 
    49   </property>
    50 
    51 </configuration>

     我的配置:

     1 <configuration>
     2         <property>
     3                 <name>hbase.master</name>               #hbasemaster的主机和端口
     4                 <value>linux1:60000</value>
     5         </property>
     6         <property>
     7                 <name>hbase.master.maxclockskew</name>    #时间同步允许的时间差
     8                 <value>180000</value>
     9         </property>
    10         <property>
    11                 <name>hbase.rootdir</name>
    12                 <value>hdfs://linux1:9000/hbase</value>#hbase共享目录,持久化hbase数据
    13         </property>
    14         <property>
    15                 <name>hbase.cluster.distributed</name>  #是否分布式运行,false即为单机
    16                 <value>true</value>
    17         </property>
    18         <property>
    19                 <name>hbase.zookeeper.quorum</name>#zookeeper地址
    20                 <value>linux2,linux3,linux4</value>
    21         </property>
    22         <property>
    23                 <name>hbase.zookeeper.property.dataDir</name>#zookeeper配置信息快照的位置
    24                 <value>/root/app/hadoop/zookeeper</value>
    25         </property>
    26 </configuration>

    regionservers    //是从机器的域名

    slave1
    
    slave2
    
    slave3

     我的配置

    linux2
    linux3
    linux4

    5.把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下

    cp app/hadoop/hadoop-2.6.4/etc/hadoop/hdfs-site.xml app/hadoop/hbase-1.1.13/conf/

    cp app/hadoop/hadoop-2.6.4/etc/hadoop/core-site.xml app/hadoop/hbase-1.1.13/conf/

    6.将配置好的文件夹和环境变量发送至其他主机并在其他主机上使环境变量生效

    scp –r /home/hadoop/hbase hadoop@slave1:/home/hadoop

    scp –r /home/hadoop/hbase hadoop@slave2:/home/hadoop

    scp –r /home/hadoop/hbase hadoop@slave3:/home/hadoop

    7.启动hbase

      启动hbase之前要先启动hadoop和zookeeper的hdfs

      启动命令:start-hbase.sh

    8.查看

      进程:jps

    2257 QuorumPeerMain
    1666 NameNode
    1843 SecondaryNameNode
    2441 HMaster
    3229 Jps
    1982 ResourceManager

      进入hbase的shell:hbase shell

    [root@linux1 ~]# hbase shell
    SLF4J: Class path contains multiple SLF4J bindings.
    SLF4J: Found binding in [jar:file:/root/app/hadoop/hbase-1.1.13/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
    SLF4J: Found binding in [jar:file:/root/app/hadoop/hadoop-2.6.4/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
    SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
    SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
    HBase Shell; enter 'help<RETURN>' for list of supported commands.
    Type "exit<RETURN>" to leave the HBase Shell
    Version 1.1.13, rc64bf8a9f35352cd504f2b8f4b02f9148cf45ab6, Thu Nov 30 21:33:16 PST 2017
    
    hbase(main):001:0> list
    TABLE                                                                                                
    0 row(s) in 0.3790 seconds
    
    => []
    hbase(main):002:0>

      退出hbase的shell:quit

  • 相关阅读:
    [转] 你不知道的JavaScript和CSS交互的方法
    threejs学习笔记(9)
    把Mongodb配置成windows服务
    mongodb的一些基本操作
    DuiLib事件分析(一)——鼠标事件响应
    DuiLib学习bug整理——某些png不能显示
    DuiLib学习笔记5——标题栏不能正常隐藏问题
    DuiLib学习笔记4——布局
    DuiLib学习笔记3——颜色探究
    DuiLib学习笔记2——写一个简单的程序
  • 原文地址:https://www.cnblogs.com/xiaoaofengyue/p/8193592.html
Copyright © 2011-2022 走看看