Zookeeper,Hbase 伪分布,集群搭建

工作中一般使用的都是zookeeper和Hbase的分布式集群.

    more /etc/profile
    cd /usr/local
    zookeeper-3.4.5.tar.gz

zookeeper在安装部署的时候,节点数量必须是不少于三个的奇数个.

 ===================================

伪分布式搭建(3个节点):

    伪分布式集群,就是在一台pc中,启动多个zookeeper的实例,完全分布式是指每台pc,启动一个zookeeper实例.

  1.1 解压缩zookeeper-3.4.5.tar.gz

    tar -zxvf zookeeper-3.4.5.tar.gz
    mv zookeeper-3.4.5 zookeeper
    cd zookeeper
    rm -rf docs/
    rm -rf src/
    cd conf/

  1.2 执行命令:

    cp zoo_sample.cfg zoo1.cfg
    more zoo1.cfg    
    tickTime=2000:集群中,各个节点通信的单位叫tick,通信时间是2000毫秒.
    initLimit=10:10个tick,初始化同步时需要的时间.
    syncLimit=5:同步使用的时间.
    dataDir=/tmp/zookeeper:存储数据使用的一些目录.
    clientPort=2181:    客户端与zookeeper通信所使用的端口.

  1.3 修改文件conf/zoo1.cfg,修改内容如下:

    vi zoo1.cfg
    dataDir=/usr/local/zookeeper/zoo1/data/
    clientPort=2181
    #描述zookeeper三个节点之间的关系,
    #4:每个节点的标示. hadoop4:标示zookeeper所在的机器.
    server.1=hadoop4:2888:3888
    server.2=hadoop4:2889:3889
    server.3=hadoop4:2890:3890

  1.4 执行命令:

    cp zoo1.cfg zoo2.cfg

  1.5 修改文件conf/zoo2.cfg,修改内容如下:

    vi zoo2.cfg
    dataDir=/usr/local/zookeeper/zoo2/data/
    clientPort=2182//客户端访问需要使用2182端口,三个不同放入节点,不能都是用同一个端口2181
    server.1=hadoop4:2888:3888
    server.2=hadoop4:2889:3889
    server.3=hadoop4:2890:3890

1.6 修改文件conf/zoo2.cfg,修改内容如下:

    vi zoo2.cfg
    dataDir=/usr/local/zookeeper/zoo2/data/
    clientPort=2182//客户端访问需要使用2182端口,三个不同放入节点,不能都是用同一个端口2181
    server.1=hadoop0:2888:3888
    server.2=hadoop0:2889:3889
    server.3=hadoop0:2890:3890
    
    cp zoo1 .cfg zoo3.cfg
    vi zoo3.cfg
    dataDir=/usr/local/zookeeper/zoo3/data/
    clientPort=2183//客户端访问需要使用2182端口,三个不同放入节点,不能都是用同一个端口2181
    server.1=hadoop4:2888:3888
    server.2=hadoop4:2889:3889
    server.3=hadoop4:2890:3890

  1.7 执行命令,产生存储数据的目录:

    clear
    mkdir -p /usr/local/zookeeper/zoo1/data/
    mkdir -p /usr/local/zookeeper/zoo2/data/
    mkdir -p /usr/local/zookeeper/zoo3/data/

  1.8 产生标记文件:

    //myid 标注在这个节点下的数据是输入哪一个节点的.
    cd ..
    echo '1' > zoo1/data/myid
    echo '2' > zoo2/data/myid
    echo '3' > zoo3/data/myid

  1.9 分别启动节点:

    cd zookeeper
    bin/zkServer.sh start conf/zoo1.cfg
    bin/zkServer.sh start conf/zoo2.cfg
    bin/zkServer.sh start conf/zoo3.cfg

    jps 查看节点,多出一个zookeeper进程:QuorumPeerMain
    在一个节点上启动三个zookeeper进程,组成的节点就是zookeeper的伪分布.

  zookeeper的操作:

    bin/zkCli.sh
    //连接某一个节点
    connect hadoop4:2182
    //ls 显示zookeeper的目录结构
    ls /
    ls /zookeeper/quota
    //create 创建节点
    create /crxy hadoop
    //get 读取节点的值
    get /crxy
    //set 修改节点的值
    set /crxy 44444
    zookeeper就是一个读写数据的,管理这些数据的时候,就是一个树状结构.
    zookeeper最大的特点:保证数据的同步.

  ip修改和主机名绑定:

    修改主机名:
    vi /etc/sysconfig/network
    修改ip:
    vi /etc/sysconfig/network-scripts/ifcfg-Auto-eth1
    删除硬件地址:HWADDR,UUID
    修改ip地址:IPADDR
    重启网络:
    service netwotk restart 
    查看ip地址:
    ifconfig
    添加ip地址和主机名绑定:
    vi /etc/hosts

 

 ===================================

Hbase伪分布式搭建(只有一个节点,使用自己的zookeeper实例):

  2.1 解压缩:

    tar -zxvf hbase-0.94.13-security.tar.gz
    mv hbase-0.94.13-security.tar.gz hbase
    rm -rf *.gz
    cd hbase 
    rm -rf docs/
    rm -rf src/

  2.2 编辑文件conf/hbase-env.sh,修改内容:

    vi conf/hbase-env.sh
    export JAVA_HOME=/usr/local/jdk
    //告诉HBASE是否应该自己管理自己的zookeeper实例,true 表示zookeeper是hbase自己搭建的,与外部的没有关系.
    export HBASE_MANAGES_ZK=true

  2.3 编辑文件conf/hbase-site.xml 修改内容:

    vi conf/hbase-site.xml

    <configuration>
        <!-- 存放数据的目录-->
        <property>
            <name>rootDir</name>
            <value>hdfs://hadoop4:9000/hbase</value>
        </property>
        <!--是否是分布式 -->
        <property>
            <name>hbase.cluster.distributed</name>
            <value>true</value>
        </property>
        <!-- zookeeper存放的机器-->
        <property>
            <name>hbase.zookeeper.quorum</name>
            <value>hadoop4</value>
        </property>
    </configuration>

  2.4 启动hbase之前,需要检查hadoop的hdfs是否正常运行的.

    启动hbase
    cd hbase 
    bin/start-hbase.sh

  2.5 检查,执行jps命令,看到三个新的java进程,分别是:

    HQuorumPeer,HMaster,HRegionServer
    查看hdfs://hadoop4:60010

 ===================================

zookeeper集群部署:

  1.在hadoop4上解压缩zookeeper-3.4.5.tar.gz

  2.执行命令cp conf/zoo_sample.cfg conf/zoo.cfg

  3.修改文件conf/zoo.cfg

    dataDir=/usr/local/zookeeper/data
    clientPort=2181

    server.1=hadoop4:2888:3888
    server.2=hadoop5:2889:3889
    server.3=hadoop6:2890:3890

  4.执行命令,产生存储数据的目录

    mkdir -p /usr/local/zookeeper/data

  5.产生标记文件

    echo '0' > /usr/local/zookeeper/data/myid

  6.把hadoop4上的zookeeper复制到其他节点

    scp -rq zookeeper hadoop5:/usr/local
    scp -rq zookeeper hadoop6:/usr/local

  7.在hadoop5,hadoop6上产生标记文件:

    在hadoop5上执行 echo '1' > /usr/local/zookeeper/data/myid

    在hadoop6上执行 echo '2' > /usr/local/zookeeper/data/myid

  8.在三个节点分别执行bin/zkServer.sh start

  9.检查(1)执行jps查看 (2)执行bin/zkServer.sh status

    hbase关闭:
    hbase/bin/stop-hbase.sh 
    查看zookeeper的状态:
    bin/zkServer.sh ststus

 ===================================

搭建Hbase集群(hadoop4作为主节点,hadoop5和hadoop6作为从节点):

  1.在hadoop4上 解压缩,

  2.编辑文件conf/hbase-env.sh

    export JAVA_HOME=/usr/local/jdk
    export HBASE_MANAGES_ZK=false

  3.编辑文件conf/hbase-site.xml

    <configuration>
        <!-- 存放数据的目录-->
        <property>
            <name>rootDir</name>
            <value>hdfs://hadoop4:9000/hbase</value>
        </property>
        <!--是否是分布式 -->
        <property>
            <name>hbase.cluster.distributed</name>
            <value>true</value>
        </property>
        <!-- zookeeper存放的机器-->
        <property>
            <name>hbase.zookeeper.quorum</name>
            <value>hadoop4,hadoop5,hadoop6</value>
        </property>
    </configuration>

  4.编辑文件conf/regionservers修改内容

    hadoop5
    hadoop6

  5.复制hbase到其他节点,hadoop5,hadoop6

    cd ..
    scp hbase hadoop5:/usr/local
    scp hbase hadoop6:/usr/local

  6. 启动hbase之前,要检查hadoop的hdfs,zookeeper,集群是否正常运行.

    hadoop4上执行bin/start-hbase.sh

  7.检查.执行jps命令,在hadoop0看到看到一个新的进程,HMaster

    查看http://hadoop4:60010

原文地址:https://www.cnblogs.com/xiaolong1032/p/5034727.html