前提
Hadoop环境
Zookeeper集群
上传解压HBase压缩包
#解压hbase tar -zxvf hbase-0.98.12.1-hadoop2-bin.tar.gz #重命名 mv hbase-0.98.12.1-hadoop2 hbase-0.98 #移动至/opt/spurce/目录下 mv hbase-0.98 /opt/source/修改配置文件
配置RegionServer,把集群节点添加到regionservers
[root@node1 conf]# cd /opt/source/hbase-0.98/conf/ [root@node1 conf]# vim regionservers node1 node2 node3配置备用节点
[root@node1 conf]# vim backup-masters node2 注:backup-masters不要和主节点在一起配置Hbase环境
[root@node1 conf]# vim hbase-env.sh exprot JAVA_HOME=/usr/java/jdk1.7.0_67 export HBASE_MANAGES_ZK=false配置Hbase的核心配置文件
[root@node1 conf]# vim hbase-site.xml <property> <name>hbase.rootdir</name> <value>hdfs://shy/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>node1:2181,node2:2181,node3:2181</value> </property>拷贝hdfs-site.xml到habse的配置目录
[root@node1 conf]# cp /opt/source/hadoop-2.6.5/etc/hadoop/hdfs-site.xml /opt/source/hbase-0.98/conf/拷贝Hbase到其他主机
[root@node1 conf]# scp -r /opt/source/hbase-0.98/ root@node2:/opt/source/ [root@node1 conf]# scp -r /opt/source/hbase-0.98/ root@node3:/opt/source/修改环境变量```:
拷贝profile到其他主机
[root@node1 conf]# scp /etc/profile root@node2:/etc/profile [root@node1 conf]# scp /etc/profile root@node3:/etc/profile最后每一台服务器都执行:source /etc/profile
启动集群
#先启动三台服务器上的zkServer [root@node1,2,3 ~]# zkServer.sh start #在node1上启动hadoop,一定不要三台都运行这个命令 [root@node1 ~]# start-all.sh #在node3上启动resourcemanager,一定不要三台都运行这个命令 [root@node3 ~]# yarn-daemon.sh start resourcemanager启动hbase
#在node1上启动hbase [root@node1 ~]# start-hbase.sh