Hbase安装详解

本文安装环境介绍:

a、三台linux服务器,分别命名为node1、node2、node3(已在/etc/hosts文件里做好了ip和名字的映射)

b、软件压缩包存储路径:/export/software/

c、解压后安装包存储路径:/export/server/

d、hadoop版本:hadoop-3.3.0

hadoop和hbase兼容性

Hbase安装详解_第1张图片

 1、下载Hbase

网址:https://dlcdn.apache.org/hbase/2.4.11/

2、上传到node1上并解压到/export/server/目录下

(base) [root@node1 conf]# tar -zxvf hbase-2.4.11-bin.tar.gz -C /export/server

3、进入安装目录的conf文件夹下 ,并配置文件

(base) [root@node1 conf]# cd /export/server/hbase-2.4.11/conf

a、修改hbase-site.xml文件

(base) [root@node1 conf]# vim hbase-env.sh

增加以下两项(也可以在文件里找到然后修改)

#安装的jdk的路径

export JAVA_HOME=/export/server/jdk1.8.0_241/

export HBASE_CLASSPATH=/export/server/hadoop-3.3.0/etc/hadoop

export HBASE_MANAGES_ZK=false

b、修改hbase-site.xml文件

(base) [root@node1 conf]# vim hbase-site.xml 

修改或者直接增加以下内容:

             

       

                hbase.rootdir

                hdfs://node1:8020/hbase

       

       

       

                hbase.cluster.distributed

                true

       

       

       

                hbase.zookeeper.quorum

                node1,node2,node3:2181

       

       

       

              hbase.master.info.port

              60010

       

       

       

                hbase.unsafe.stream.capability.enforce

                false

       

c、修改regionservers文件

指定HBase集群的从节点;原内容清空,添加如下三行

node1

node2

node3

d、修改backup-masters文件

        创建back-masters配置文件,里边包含备份HMaster节点的主机名,每个机器独占一行,实现HMaster的高可用(原文件不存在,需要新建)

(base) [root@node1 conf]# vim backup-masters

将node2作为备份的HMaster节点,内容如下

node2

4、分发安装包

将 node1上的HBase安装包,拷贝到其他机器上

(base) [root@node1 conf]# scp -r hbase-2.4.11/ node2:/export/server

(base) [root@node1 conf]# scp -r hbase-2.4.11/ node3:/export/server 

5、创建软连接

注意:三台机器均需如下操作

因为HBase集群需要读取hadoop的core-site.xml、hdfs-site.xml的配置文件信息,所以我们三台机器都要执行以下命令,在相应的目录创建这两个配置文件的软连接

(base) [root@node1 conf]# ln -s /export/server/hadoop-3.3.0/etc/hadoop/core-site.xml /export/server/hbase-2.4.11/conf/core-site.xml

(base) [root@node1 conf]# ln -s /export/server/hadoop-3.3.0/etc/hadoop/hdfs-site.xml /export/server/hbase-2.4.11/conf/hdfs-site.xml

 6、添加HBase环境变量

三台机器均执行以下命令,添加环境变量

(base) [root@node1 hbase-2.4.11]# vim /etc/profile

export HBASE_HOME=/export/server/hbase-2.4.11

export PATH=$PATH:$HBASE_HOME/bin

重新编译/etc/profile,让环境变量生效 

(base) [root@node1 hbase-2.4.11]# source /etc/profile

7、HBase的启动与停止

需要提前启动HDFS及ZooKeeper集群
如果没开启hdfs,请在node1运行start-dfs.sh命令
如果没开启zookeeper,请在3个节点分别运行zkServer.sh start命令
第一台机器node1(HBase主节点)执行以下命令,启动HBase集群

(base) [root@node1 spark]# start-hbase.sh

启动完后,jps查看HBase相关进程

node1、node2上有进程HMaster、HRegionServer

node3上有进程HRegionServer

8、访问WEB页面

  • 浏览器页面访问

    http://node1:60010

9、停止HBase集群
停止HBase集群的正确顺序

(base) [root@node1 spark]# stop-hbase.sh

node01上运行,关闭hbase集群
关闭ZooKeeper集群
关闭Hadoop集群
关闭虚拟机

如果一直等待无法关闭,可先输入hbase-daemon.sh stop master命令,再输入stop-hbase.sh命令。

你可能感兴趣的:(软件安装,hbase,大数据,linux)