1.上传压缩包
2.解压
3.修改环境变量
1、 在master机器上执行下面命令:
su – root
vi/etc/profile
添加内容:
export HBASE_HOME= /root/app/hadoop/hbase-1.1.13 export PATH=$PATH:$HBASE_HOME/bin |
执行命令:
source /etc/profile
su – hadoop
2、在其他机器上执行上述操作。
4.修改配置文件
su – hadoop
配置hbase目录下的conf文件夹里文件
hbase-env.sh
export JAVA_HOME=/usr/jdk //jdk安装目录
export HBASE_CLASSPATH=/home/hadoop/hadoop/conf //hadoop配置文件的位置
export HBASE_MANAGES_ZK=true #如果使用独立安装的zookeeper这个地方就是false
我的配置:
# The java implementation to use. Java 1.7+ required.
export JAVA_HOME=/root/app/jdk/jdk1.8.0_152
# Extra Java CLASSPATH elements. Optional.
export HBASE_CLASSPATH=/root/app/hadoop/hadoop-2.6.4/etc/hadoop/conf
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false
hbase-site.xml
1 <configuration> 2 3 <property> 4 5 <name>hbase.master</name> #hbasemaster的主机和端口 6 7 <value>master1:60000</value> 8 9 </property> 10 11 <property> 12 13 <name>hbase.master.maxclockskew</name> #时间同步允许的时间差 14 15 <value>180000</value> 16 17 </property> 18 19 <property> 20 21 <name>hbase.rootdir</name> 22 23 <value>hdfs:// hadoop-cluster1/hbase</value>#hbase共享目录,持久化hbase数据 24 25 </property> 26 27 <property> 28 29 <name>hbase.cluster.distributed</name> #是否分布式运行,false即为单机 30 31 <value>true</value> 32 33 </property> 34 35 <property> 36 37 <name>hbase.zookeeper.quorum</name>#zookeeper地址 38 39 <value>slave1, slave2,slave3</value> 40 41 </property> 42 43 <property> 44 45 <name>hbase.zookeeper.property.dataDir</name>#zookeeper配置信息快照的位置 46 47 <value>/home/hadoop/hbase/tmp/zookeeper</value> 48 49 </property> 50 51 </configuration>
我的配置:
1 <configuration> 2 <property> 3 <name>hbase.master</name> #hbasemaster的主机和端口 4 <value>linux1:60000</value> 5 </property> 6 <property> 7 <name>hbase.master.maxclockskew</name> #时间同步允许的时间差 8 <value>180000</value> 9 </property> 10 <property> 11 <name>hbase.rootdir</name> 12 <value>hdfs://linux1:9000/hbase</value>#hbase共享目录,持久化hbase数据 13 </property> 14 <property> 15 <name>hbase.cluster.distributed</name> #是否分布式运行,false即为单机 16 <value>true</value> 17 </property> 18 <property> 19 <name>hbase.zookeeper.quorum</name>#zookeeper地址 20 <value>linux2,linux3,linux4</value> 21 </property> 22 <property> 23 <name>hbase.zookeeper.property.dataDir</name>#zookeeper配置信息快照的位置 24 <value>/root/app/hadoop/zookeeper</value> 25 </property> 26 </configuration>
regionservers //是从机器的域名
slave1
slave2
slave3
我的配置
linux2
linux3
linux4
5.把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
cp app/hadoop/hadoop-2.6.4/etc/hadoop/hdfs-site.xml app/hadoop/hbase-1.1.13/conf/
cp app/hadoop/hadoop-2.6.4/etc/hadoop/core-site.xml app/hadoop/hbase-1.1.13/conf/
6.将配置好的文件夹和环境变量发送至其他主机并在其他主机上使环境变量生效
scp –r /home/hadoop/hbase hadoop@slave1:/home/hadoop
scp –r /home/hadoop/hbase hadoop@slave2:/home/hadoop
scp –r /home/hadoop/hbase hadoop@slave3:/home/hadoop
7.启动hbase
启动hbase之前要先启动hadoop和zookeeper的hdfs
启动命令:start-hbase.sh
8.查看
进程:jps
2257 QuorumPeerMain
1666 NameNode
1843 SecondaryNameNode
2441 HMaster
3229 Jps
1982 ResourceManager
进入hbase的shell:hbase shell
[root@linux1 ~]# hbase shell SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/root/app/hadoop/hbase-1.1.13/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/root/app/hadoop/hadoop-2.6.4/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] HBase Shell; enter 'help<RETURN>' for list of supported commands. Type "exit<RETURN>" to leave the HBase Shell Version 1.1.13, rc64bf8a9f35352cd504f2b8f4b02f9148cf45ab6, Thu Nov 30 21:33:16 PST 2017 hbase(main):001:0> list TABLE 0 row(s) in 0.3790 seconds => [] hbase(main):002:0>
退出hbase的shell:quit