HBASE完全分布式模式的安装

1集群环境下hadoop.1.1.2已经安装成功

2配置hosts,及环境变量

3编辑hbase-env.xml

4编辑hbase-site.xml

5编辑regionservers文件

6把Hbase复制到其它节点

7启动Hbase

8验证启动


 

1集群环境下hadoop.1.1.2已经安装成功

确保hadoop集群正常。

2配置hosts,确保涉及的主机名均可以解析为ip, 解压hbase

配置好需要安装hbase的机器,因为要用到zoopkeeper最好确保机器个数为奇数个。 

注意事项,hbase的版本要兼容hadoop集群的hadoop-core-xxx.jar的版本。最好hbase版本里lib下的hadoop-core-xxx.jar和hadoop集群的一样。

所以这里我选择了HBase-0.96.0, 对应hadoop-core-1.1.2.jar

解压hbase过程略过。

tar -zxvf /home/hadoop/hbase-0.96.0-hadoop1-bin.tar.gz

mv hbase-0.96.0-hadoop1 hbase   ##重命名为hbase 

①配置环境变量。

su 切换root用户

vi /etc/profile

export HBASE_HOME=/home/hadoop/hbase

export PATH=.:$HBASE_HOME/bin:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

②使环境变量生效

source /etc/profile

su hadoop

③验证hbase

hbase version


3编辑$HBASE_HOME/conf/hbase-env.xml

#Java环境

export  JAVA_HOME=/usr/local/jdk1.6.0_24

#通过hadoop的配置文件找到hadoop集群

export  HBASE_CLASSPATH=/home/hadoop/hadoop-1.1.2/conf

#使用HBASE自带的zookeeper管理集群

export  HBASE_MANAGES_ZK=true


4编辑$HBASE_HOME/conf/hbase-site.xml

hbase-0.94版本压缩包解压后会有 $HBASE_HOME/src/main/resources/hbase-default.xml 拷贝里面的内容加入到 $HBASE_HOME/conf/hbase-site.xml。

修改

<property>

   <name>hbase.rootdir</name>

   <value>hdfs://hadoop100:9000/hbase</value>

   <!--hadoop集群下需要有hdfs://hadoop100:9000/hbase,  hadoop dfs -mkdir hdfs://hadoop100:9000/hbase-->

</property>

<property>

   <name>hbase.cluster.distributed</name>

   <value>true</value>

   <!--开启分布式-->

</property>

<property>

 <name>hbase.zookeeper.quorum</name>

  <value>hadoop100,hadoop101,hadoop102</value>

  <!--hbase分布式各节点,使用奇数个zookeeper尽可能确保选举leader公平-->

</property>

<property>

  <name>hbase.tmp.dir</name>

  <value>/home/hadoop/hbase-tmp</value>

  <!--hbase临时文件位置-->

</property>

<property>

  <name>hbase.zookeeper.property.dataDir</name>

  <value>/home/hadoop/hbase-tmp/zookeeper</value>

  <!--hbase临时zookeeper数据存放位置-->

</property>


5编辑$HBASE_HOME/conf/regionservers文件

hadoop101
hadoop102 

6把Hbase复制到其它节点

scp -r /home/hadoop/hbase/ hadoop@hadoop101:/home/hadoop/
scp -r /home/hadoop/hbase/ hadoop@hadoop102:/home/hadoop/

su 切换root
scp -r /etc/profile   root@hadoop101:/etc
scp -r /etc/profile   root@hadoop102:/etc

source /etc/profile
分别验证
hbase version

7启动Hbase

start-hbase.sh  

8验证启动

验证:jps 可以查看进程

或者 用 hbase shell尝试进入 hbase环境

停止hbase

stop-hbase



原文地址:https://www.cnblogs.com/riasky/p/3469032.html