一、安装准备
hbase底层数据存储在hdfs,计算依赖于mapreduce,还依赖于zk做协调服务,所以环境中需要有hadoop、zookeeper、jdk
安装节点:
分布式的主从架构
一主多从/多主多从 对zk的依赖性很强
注意: 线上生产环境部署集群的时候zookeeper单独独立出来,这里因为测试环境资源有限就跟hdfs集群放一起了
集群规划(2主(高可用) 3从):
hadoop01:regionserver
hadoop02 :master,regionserver
hadoop03:master,regionserver
安装版本:
安装版本一定十分谨慎
版本和 jdk、hadoop的版本都存在兼容性问题
下面是hbase官网给出的版本兼容图:
其中对勾的是测试通过的版本,红叉的是测试不通过的版本,叹号是未测试版本
![](https://img.laitimes.com/img/_0nNw4CM6IyYiwiM6ICdiwiIwczX0xiRGZkRGZ0Xy9GbvNGL2EzXlpXazxSP9cnTz0keNZGZtJGaoJzY2FjMMBjVtJWd0ckW65UbM5WOHJWa5kHT20ESjBjUIF2X0hXZ0xCMx81dvRWYoNHLrdEZwZ1Rh5WNXp1bwNjW1ZUba9VZwlHdssmch1mclRXY39CXldWYtlWPzNXZj9mcw1ycz9WL49zZuBnL5IjN2AzN1ETMxAjNwkTMwIzLc52YucWbp5GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.png)
我们这里选用hbase 1.2.6 版本
二、安装步骤
1、上传安装包(官网可以下载)
2、解压tar包
tar -xvzf hbase-1.2.6-bin.tar.gz
3、配置环境变量
sudo vi /etc/profile
export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin
source /etc/profile
4、修改配置文件
cd /home/hadoop/apps/hbase-1.2.6/conf
4.1hbase-env.sh 配置文件修改
vi hbase-env.sh
添加JAVA_HOME
zookeeper换成自己搭建的(默认使用的是单机版自带的zookeeper)
注意: #注释一定删除了
4.2hbase-site.xml 配置文件的修改
指定我们的集群zk地址
<property>
<!-- 指定 hbase 在 HDFS 上存储的路径,test是高可用namenode的组名 -->
<name>hbase.rootdir</name>
<value>hdfs://test/user/hbase/hbasedata</value>
</property>
<property>
<!-- 指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
4.3regionservers
touch regionservers
vim regionservers
配置的是从节点信息,一行一个 (千万不要在每行后面加空格)
hadoop01
hadoop02
hadoop03
4.4backup-masters (没有该文件就新建)
配置备份主节点
hadoop03
4.5将hadoop的 core-site hdfs-site 拷贝到 hbase的conf下
不拷贝的话这两个文件的话hbase会找不到hdfs集群位置!
cp core-site.xml hdfs-site.xml /home/hadoop/apps/hbase-1.2.6/conf/
5、远程发送
scp -r hbase-1.2.6 hadoop02:/home/hadoop/apps/
scp -r hbase-1.2.6 hadoop03:/home/hadoop/apps/
6、分别修改hadoop02 hadoop03环境配置
sudo vi /etc/profile
export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin
source /etc/profile
7、启动
start-hbase.sh 哪个节点为master节点,就在哪个节点启动
在hadoop02启动
8、验证
在浏览器输入:hadoop02:16060,,出现以下页面代表成功!