hbase集群安装文档

1. 搭建hbase集群的前提条件是:

(1) 需要有一个可用的hdfs分布式文件系统(2) 需要有一个可用的zookeeper或者集群 (3)搭建机器需要有jdk 的环境

2. 上传

用root用户和其他用户来安装都是可行的。

这个用 root用户,用工具将hbase安装包hbase-0.99.2-bin.tar.gz上传到/home/hadoop下,确保hbase-0.99.2-bin.tar.gz的用户是root,如果不是,执行chown命令,见上文

3.   解压

su – hadoop

tar –zxvf  hbase-0.99.2-bin.tar.gz

mv hbase-0.99.2 hbase

4.   修改环境变量

(1)、  在master机器上执行下面命令:

vi /etc/profile     #新增hbase相关命令的环境变量

添加内容:

export HBASE_HOME=/home/hadoop/hbase  #hbase的安装路径
export PATH=$PATH:$HBASE_HOME/bin

执行命令:

source /etc/profile    #使修改配置文件生效

(2)、在其他机器上执行上述操作

5.   修改/home/hadoop/hbase/conf文件夹的配置文件

修改hbase/conf下的hbase-env.sh文件#修改hbase/conf 下hbase-env.sh文件,新增以下内容

export JAVA_HOME=/usr/jdk   //jdk安装目录最好jdk1.7以上
export JAVA_CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export HBASE_OPTS="-XX:+UseConcMarkSweepGC"
export HBASE_MANAGES_ZK=false   #如果使用独立安装的zookeeper这个地方就是false,如果用hbase自带的zookeeper这里就填写true

修改hbase/conf下的hbase-site.xml#hbase-site.xml

<configuration>
  <property>
  <name>hbase.master</name>           #hbasemaster的主机和端口
  <value>master:60000</value>
  </property>
  <property>
  <name>hbase.master.maxclockskew</name>    #时间同步允许的时间差(毫秒),本地测试环境尽量配大一点,不然集群机器间的时间差大于这个值后会出现报错
  <value>180000</value>
  </property>
  <property>
  <name>hbase.rootdir</name>
  <value>hdfs:// hdfs-cluster1:9000/hbase</value>   
#(1)如果使用hdfs作为hbase文件系统,hdfs路径如果不填写端口号,那么默认端口号是8020,另外不需要在hdfs上新建一个名叫hbase的路径。hbase启动中会自动在hdfs上建立hbase的路径
  <!--<value>file:///home/testuser/hbase<value> --->      
#(2)如果使用本地文件系统,可以用到hbase单机上,集群情况还没有测试
  </property>
  <property>
  <name>hbase.cluster.distributed</name>  #是否分布式运行,false即为单机
  <value>true</value>
  </property>
  <property>
  <name>hbase.zookeeper.quorum</name>#zookeeper地址
  <value>master, slave1, slave2</value>
  </property>
  <property>
  <name>hbase.zookeeper.property.dataDir</name>#zookeeper配置信息快照的位置,不用新建目录,hbase能帮我们生成以下路径
  <value>/home/hadoop/hbase/tmp/zookeeper</value>
  </property>
</configuration>

修改hbase/conf下的regionservers,这里填写的是hbase从节点的主机名,主节点主机名不用填写 

#Regionservers    //是从机器的域名
slave1
slave2

6.   把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下

cp /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml /home/hadoop/hbase/conf

cp /home/hadoop/hadoop/etc/hadoop/core-site.xml /home/hadoop/hbase/conf

7.   把配置文件发送到其他机器

scp –r hbase root@192.168.183.112:/root/apps/

scp –r /home/hadoop/hbase root@slave1:/home/hadoop

scp –r /home/hadoop/hbase root@slave2:/home/hadoop

8.   启动

sh start-hbase.sh

9.   查看

进程:jps

进入hbase的shell:hbase shell

退出hbase的shell:quit

hbase web访问页面:http://master:60010/

原文地址:https://www.cnblogs.com/yanyuechao/p/8421386.html