1.hbase的机群搭建过程(在原来的hadoop上的hbase伪分布基础上进行搭建)
1.1 集群结构,主节点(hmaster)是hadoop,从节点(region server)是hadoop1和hadoop2
1.2 修改hadoop上的hbase的几个文件
(1)修改hbase-env.sh的最后一行export HBASE_MANAGES_ZK=false
(2)修改hbase-site.xml文件的hbase.zookeeper.quorum的值为hadoop,hadoop1,hadoop2
1 <configuration>
2 <property>
3 <name>hbase.rootdir</name>
4 <value>hdfs://hadoop:9000/hbase</value>
5 </property>
6 <property>
7 <name>hbase.cluster.distributed</name>
8 <value>true</value>
9 </property>
10 <property>
11 <name>hbase.zookeeper.quorum</name>
12 <value>hadoop,hadoop1,hadoop2</value>
13 </property>
14 <property>
15 <name>dfs.replication</name>
16 <value>1</value>
17 </property>
18
19 </configuration>
(3)修改regionservers文件(存放的region server的hostname),内容修改为hadoop1、hadoop2
hadoop1
hadoop2
1.3 复制hadoop中的hbase文件夹到hadoop1、hadoop2中
1 scp -r hbase hadoop1:/usr/local 2 scp -r hbase hadoop2:/usr/local
复制hadoop中的/etc/profile到hadoop1、hadoop2中,
1 scp /etc/profile hadoop1:/etc/ 2 scp /etc/profile hadoop2:/etc/
在hadoop1、hadoop2上执行
1 ssh hadoop1 2 source /etc/profile 3 ssh hadoop2 4 source /etc/profile
1.4 (1)首先启动hadoop集群,
(2)然后启动zookeeper集群。(注意在3个节点上都要启动zookeeper节点)
(3)最后在hadoop上启动hbase集群。
1 start-all.sh (hadoop节点) 2 3 zkServer.sh start (hadoop节点) 4 zkServer.sh start (hadoop1节点) 5 zkServer.sh start (hadoop2节点) 6 7 start-hbase.sh (hadoop节点)