本文安装环境介绍:
a、三台linux服务器,分别命名为node1、node2、node3(已在/etc/hosts文件里做好了ip和名字的映射)
b、软件压缩包存储路径:/export/software/
c、解压后安装包存储路径:/export/server/
d、hadoop版本:hadoop-3.3.0
hadoop和hbase兼容性
1、下载Hbase
2、上传到node1上并解压到/export/server/目录下
(base) [root@node1 conf]# tar -zxvf hbase-2.4.11-bin.tar.gz -C /export/server
3、进入安装目录的conf文件夹下 ,并配置文件
(base) [root@node1 conf]# cd /export/server/hbase-2.4.11/conf
a、修改hbase-site.xml文件
(base) [root@node1 conf]# vim hbase-env.sh
增加以下两项(也可以在文件里找到然后修改)
#安装的jdk的路径
export JAVA_HOME=/export/server/jdk1.8.0_241/
export HBASE_CLASSPATH=/export/server/hadoop-3.3.0/etc/hadoop
export HBASE_MANAGES_ZK=false
b、修改hbase-site.xml文件
(base) [root@node1 conf]# vim hbase-site.xml
修改或者直接增加以下内容:
<configuration></configuration><!-- 指定hbase在HDFS上存储的路径 --> <property> <name>hbase.rootdir</name> <value>hdfs://node1:8020/hbase</value> </property> <!-- 指定hbase是否分布式运行 --> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <!-- 指定zookeeper的地址,多个用“,”分割 --> <property> <name>hbase.zookeeper.quorum</name> <value>node1,node2,node3:2181</value> </property> <!--指定hbase管理页面--> <property> <name>hbase.master.info.port</name> <value>60010</value> </property> <!-- 在分布式的情况下一定要设置,不然容易出现Hmaster起不来的情况 --> <property> <name>hbase.unsafe.stream.capability.enforce</name> <value>false</value> </property>
c、修改regionservers文件
指定HBase集群的从节点;原内容清空,添加如下三行
node1
node2
node3
d、修改backup-masters文件
创建back-masters配置文件,里边包含备份HMaster节点的主机名,每个机器独占一行,实现HMaster的高可用(原文件不存在,需要新建)
(base) [root@node1 conf]# vim backup-masters
将node2作为备份的HMaster节点,内容如下
node2
4、分发安装包
将 node1上的HBase安装包,拷贝到其他机器上
(base) [root@node1 conf]# scp -r hbase-2.4.11/ node2:/export/server
(base) [root@node1 conf]# scp -r hbase-2.4.11/ node3:/export/server
5、创建软连接
注意:三台机器均需如下操作
因为HBase集群需要读取hadoop的core-site.xml、hdfs-site.xml的配置文件信息,所以我们三台机器都要执行以下命令,在相应的目录创建这两个配置文件的软连接
(base) [root@node1 conf]# ln -s /export/server/hadoop-3.3.0/etc/hadoop/core-site.xml /export/server/hbase-2.4.11/conf/core-site.xml
(base) [root@node1 conf]# ln -s /export/server/hadoop-3.3.0/etc/hadoop/hdfs-site.xml /export/server/hbase-2.4.11/conf/hdfs-site.xml
6、添加HBase环境变量
三台机器均执行以下命令,添加环境变量
(base) [root@node1 hbase-2.4.11]# vim /etc/profile
export HBASE_HOME=/export/server/hbase-2.4.11
export PATH=$PATH:$HBASE_HOME/bin
重新编译/etc/profile,让环境变量生效
(base) [root@node1 hbase-2.4.11]# source /etc/profile
7、HBase的启动与停止
需要提前启动HDFS及ZooKeeper集群
如果没开启hdfs,请在node1运行start-dfs.sh命令
如果没开启zookeeper,请在3个节点分别运行zkServer.sh start命令
第一台机器node1(HBase主节点)执行以下命令,启动HBase集群
(base) [root@node1 spark]# start-hbase.sh
启动完后,jps查看HBase相关进程
node1、node2上有进程HMaster、HRegionServer
node3上有进程HRegionServer
8、访问WEB页面
- 浏览器页面访问http://node1:60010
9、停止HBase集群
停止HBase集群的正确顺序
(base) [root@node1 spark]# stop-hbase.sh
node01上运行,关闭hbase集群
关闭ZooKeeper集群
关闭Hadoop集群
关闭虚拟机
如果一直等待无法关闭,可先输入hbase-daemon.sh stop master命令,再输入stop-hbase.sh命令。
版权归原作者 沉默鹰_90 所有, 如有侵权,请联系我们删除。