(一)Hbase 全分布式搭建

一.集群规划

Name Master Slave1 Slave2
IP 192.168.2.98 192.168.2.99 192.168.2.100
Jdk版本 1.8.0.171 1.8.0.171 1.8.0.171
Zookeeper版本 3.4.10 3.4.10 3.4.10
Hadoop版本 2.7.3 2.7.3 2.7.3
Scala版本 2.11.12 2.11.12 2.11.12
Spark版本 2.4.0 2.4.0 2.4.0
Hbase版本 1.2.4 1.2.4 1.2.4
HMaster
HRegionServer

二.搭建Hbase全分布式

在已完成此配置的基础上执行以下。tar包链接https://pan.baidu.com/s/1hwLPI0eUwkpGmP5ROqM6Lw 提取码: k7m3

在Hbase服务启动前Zookeeper、Hadoop得先启动,如果没有搭建可移至ZooKeeper全分布式Hadoop全分布式进行搭建。

# mkdir /usr/hbase  建立目录
# tar -zxvf hbase-1.2.4-bin.tar.gz -C /usr/hbase/  解压
# vim /etc/profile  添加环境变量
export HBASE_HOME=/usr/hbase/hbase-1.2.4
export PATH=$PATH:$HBASE_HOME/bin
# source /etc/profile  生效环境变量
# hbase version 验证是否成功安装HBase
# cd /usr/hbase/hbase-1.2.4/conf/
# vim hbase-env.sh  配置1添加如下
export JAVA_HOME=/usr/java/jdk1.8.0_171  jdk目录
# vim hbase-site.xml  配置2在<configuration> </configuration>间添加
<property>
  <!-- 这里要与hadoop的core-site.xml内fs.default.name(单机)、fs.defaultFS(HA)配置的主机:端口一致 -->   <name>hbase.rootdir</name>   <value>hdfs://master:9000/hbase</value> </property> <property>   <name>hbase.cluster.distributed</name>   <value>true</value> </property> <property>   <name>hbase.zookeeper.quorum</name>   <value>master,slave1,slave2</value> </property> <property>   <name>hbase.zookeeper.property.dataDir</name>   <value>/usr/zookeeper-3.4.12/zkdata</value> </property> # vim regionservers 配置3添加 master slave1 slave2 # echo master > backup-masters 配置4添加HBase的备机名 # scp -r /usr/hbase root@slave1:/usr/ 将配好的hbase发往结点 # scp -r /usr/hbase root@slave2:/usr/ # scp -r /etc/profile root@slave1:/etc/ 环境分发各子结点 # scp -r /etc/profile root@slave2:/etc/ # source /etc/profile 各结点执行生效环境变量 # start-hbase.sh 主结点启动stop为关闭、zookeeper、hadoop要提前启动。 # ./hbase shell bin下启动进入shell后台 访问web管理界面打开浏览器网址栏输: 192.168.2.98:16010主结点IP+16010

原文地址:https://www.cnblogs.com/Agent9527/p/13193912.html