zookeeper集群搭建

zookeeper

1zookeeper功能

1-1、配置管理

集中管理配置文件实现服务治理

1-2命名服务

    如为了通过网络访问一个系统,我们得知道对方的IP地址,但是IP地址对人非常不友好,这个时候我们就需要使用域名来访问。但是计算机是不能别域名的。怎么办呢?如果我们每台机器里都备有一份域名到IP地址的映射,这个倒是能解决一部分问题,但是如果域名对应的IP发生变化了又该怎么办呢?于是我们有了DNS这个东西。我们只需要访问一个大家熟知的(known)点,它就会告诉你这个域名对应的IP是什么。在我们的应用中也会存在很多这类问题,特别是在我们的服务特别多的时候,如果我们在本地保存服务的地址的时候将非常不方便,但是如果我们只需要访问一个大家都熟知的访问点,这里提供统一的入口,那么维护起来将方便得多了。

1-3、分布式锁

    如在一个分布式环境中,为了提高可靠性,我们的集群的每台服务器上都部署着同样的服务。但是,一件事情如果集群中的每个服务器都进行的话,那相互之间就要协调,编程起来将非常复杂。而如果我们只让一个服务进行操作,那又存在单点。通常还有一种做法就是使用分布式锁,在某个时刻只让一个服务去干活,当这台服务出问题的时候锁释放,立即fail over到另外的服务。这在很多分布式系统中都是这么做,这种设计有一个更好听的名字叫Leader Election(leader选举)。比如HBaseMaster就是采用这种机制。但要注意的是分布式锁跟同一个进程的锁还是有区别的,所以使用的时候要比同一个进程里的锁更谨慎的使用

1-4、集群管理

    在分布式的集群中,经常会由于各种原因,比如硬件故障,软件故障,网络问题,有些节点会进进出出。有新的节点加入进来,也有老的节点退出集群。这个时候,集群中其他机器需要感知到这种变化,然后根据这种变化做出对应的决策。比如我们是一个分布式存储系统,有一个中央控制节点负责存储的分配,当有新的存储进来的时候我们要根据现在集群目前的状态来分配存储节点。这个时候我们就需要动态感知到集群目前的状态。还有,比如一个分布式的SOA架构中,服务是一个集群提供的,当消费者访问某个服务时,就需要采用某种机制发现现在有哪些节点可以提供该服务(这也称之为服务发现,比如Alibaba开源的SOA框架Dubbo就采用了Zookeeper作为服务发现的底层机制)。还有开源的Kafka队列就采用了Zookeeper作为Cosnumer的上下线管理。

2、单机部署

2-1、解压

tar xzvf filename

mv filename zookeeper

2-2、创建数据和日志目录

cd zookeeper

mkdir data logs

2-3、添加配置文件

cd  conf

cp  zoo_sample.cfg  zoo.cfg

修改文件 zoo.cfg

tickTime=2000

dataDir=/home/live/zookeeper/data

dataLogDir=/home/live/zookeeper/logs

clientPort=2181

2-4、添加环境变量

vim  ~/.bash_prifile

$HOME/zookeeper/bin添加到PATH

2-5、写启动脚本

mkdir  ~/scripts

cd scripts

vim zkserver.sh

#!/bin/sh

zookeeper_dir=/home/live/zookeeper

zookeeper_command_path=/home/live/zookeeper/bin

zookeeper_process="zookeeper"

case $1 in

start)

    cd $zookeeper_command_path;./zkServer.sh start

    ;;

stop)

    cd $zookeeper_command_path;./zkServer.sh stop

    ;;

restart)

    cd $zookeeper_command_path;./zkServer.sh stop;

    cd $zookeeper_command_path;./zkServer.sh start

    ;;

status)

    Process=`ps -ef|grep ${zookeeper_process}|grep -v grep |grep -v $0| wc -l`

      if [ "$Process" = 0 ];then

       echo "$process stopping."

       cd $zookeeper_command_path;./zkServer.sh status

     else

       echo "$process starting."

       cd $zookeeper_command_path;./zkServer.sh status

     fi

    ;;

*)

 echo "Usage: $0 {start|stop|restart|status}"

esac

2-6、启动zookeeper

sh scripts/zkserver.sh start

2-7、测试

1、启动客户端

~/zookeeper/bin/zkCli.sh -server z1:2181

2、创建节点

create /asd asd

3、查看节点的值

get  /asd

3、多机部署

3-1、解压

tar xzvf filename

mv filename zookeeper

3-2、创建数据和日志目录

cd zookeeper

mkdir data logs

vim  data/myid

写入1,……n

3-3、添加配置文件

1、配置主机名

vim /etc/hosts

……

2zookeeper配置文件

cd  conf

cp  zoo_sample.cfg  zoo.cfg

修改文件 zoo.cfg

tickTime=2000

dataDir=/home/live/zookeeper/data

dataLogDir=/home/live/zookeeper/logs

clientPort=2181

server.n=主机名:2888:3888

前一个端口表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;后一个端口 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口

3-4、添加环境变量

vim  ~/.bash_prifile

$HOME/zookeeper/bin添加到PATH

3-5、写启动脚本

mkdir  ~/scripts

cd scripts

vim zkserver.sh

#!/bin/sh

zookeeper_dir=/home/live/zookeeper

zookeeper_command_path=/home/live/zookeeper/bin

zookeeper_process="zookeeper"

case $1 in

start)

    cd $zookeeper_command_path;./zkServer.sh start

    ;;

stop)

    cd $zookeeper_command_path;./zkServer.sh stop

    ;;

restart)

    cd $zookeeper_command_path;./zkServer.sh stop;

    cd $zookeeper_command_path;./zkServer.sh start

    ;;

status)

    Process=`ps -ef|grep ${zookeeper_process}|grep -v grep |grep -v $0| wc -l`

      if [ "$Process" = 0 ];then

       echo "$process stopping."

       cd $zookeeper_command_path;./zkServer.sh status

     else

       echo "$process starting."

       cd $zookeeper_command_path;./zkServer.sh status

     fi

    ;;

*)

 echo "Usage: $0 {start|stop|restart|status}"

esac

3-6、启动zookeeper

sh scripts/zkserver.sh start

3-7、测试

1、启动客户端

~/zookeeper/bin/zkCli.sh -server z1:2181

2、创建节点

create /asd asd

3、查看节点的值

get  /asd

4zookeeper集群必须配置jdk

vim   /etc/profile

JAVA_HOME=?/jdk1.7.0_75

PATH=$JAVA_HOME/bin:$PATH

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

JRE_HOME=$JAVA_HOME/jre

export JAVA_HOME

export CLASSPATH

export JRE_HOME

export PATH

5、升级

5-1、查看节点的状态

echo stat | nc localhost 2191查看zookeeper状态,先从follower开始升级,最后升级leader

5-2、下载新版本

如部署时操作

配置等与部署时一致

5-3复制新版本目录到其它节点一份

scp -r -P2828 /zookeeper-3.4.8/ root@192.168.14.36:

5-4割接版本

1停止老版本服务

/usr/local/zookeeper/bin/zkServer.sh stop

2删除老版本软连接

rm -rf /usr/local/zookeeper

3做新版本软连接

ln -sv /usr/local/zookeeper-3.4.8/ /usr/local/zookeeper

4开启新版本服务

/usr/local/zookeeper/bin/zkServer.sh start

5查看状态,观察集群是否建立起来。

/usr/local/zookeeper/bin/zkServer.sh status

ZooKeeper JMX enabled by default

Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg

Mode: follower

6查看升级后数据是否还在

使用ZooInspector查看

原文地址:https://www.cnblogs.com/archimedes-euler/p/11276546.html