hadoop(八)

1. 上传hbase安装包hbase-0.96.2-hadoop2-bin.tar.gz


2. 解压 tar -zxvf hbase-0.96.2-hadoop2-bin.tar.gz -C /cloud


3. 配置hbase集群,要改动3个文件(首先zk集群已经安装好了)注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
    3.1 改动 hbase-env.sh

        export JAVA_HOME=/usr/java/jdk1.7.0_55 

        export HBASE_CLASSPATH=/itcast/hadoop/conf

        export HBASE_MANAGES_ZK=false // 告诉hbase使用外部的zk 

    3.2 vim hbase-site.xml
<configuration>
	<!-- 指定hbase在HDFS上存储的路径 -->
	<property>
			<name>hbase.rootdir</name>
			<value>hdfs://ns1/hbase</value>
	</property>
	<!-- 指定hbase是分布式的 -->
	<property>
			<name>hbase.cluster.distributed</name>
			<value>true</value>
	</property>
	<!-- 指定zk的地址。多个用“,”切割 -->
	<property>
			<name>hbase.zookeeper.quorum</name>
			<value>itcast04:2181,itcast05:2181,itcast06:2181</value>
	</property>
</configuration>
    3.3 vim regionservers
itcast03
itcast04
itcast05
itcast06
    3.4 拷贝hbase到其它节点
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast02:/itcast/
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast03:/itcast/
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast04:/itcast/
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast05:/itcast/
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast06:/itcast/

4. 将配置好的HBase复制到每个节点并同步时间。


5. 启动全部的hbase
    5.1 分别启动zk
        ./zkServer.sh start
    5.2 启动hbase集群
        start-dfs.sh
    5.3 启动hbase,在主节点上执行:

        start-hbase.sh


6. 通过浏览器訪问hbase管理页面

192.168.1.201:60010


7. 为保证集群的可靠性,要启动多个HMaster
hbase-daemon.sh start master
原文地址:https://www.cnblogs.com/jhcelue/p/6925339.html