Zookeeper-单机/集群安装

 简介

Zookeeper是一个高效的分布式协调服务,可以提供配置信息管理、命名、分布式同步、集群管理、数据库切换等服务。它不适合用来存储大量信息,可以用来存储一些配置、发布与订阅等少量信息。Hadoop、Storm、消息中间件、RPC服务框架、分布式数据库同步系统,这些都是Zookeeper的应用场景。

存储结构为树状结构

JDK安装

1.检查是否有安装jdk

Zookeeper依赖java环境输入 java -version 检查 如果安装了则会弹出jdk版本信息

2.安装java jdk

(1)检查当前linux是多少位。下载对应版本的jdk

输入命令:getconf LONG_BIT

(2)官网下载java jdk

http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

 

(3)使用xftp上传到linux并解压

 tar -zxvf jdk-8u181-linux-x64.tar.gz -C /usr/jdk

 

(4)安装jdk依赖环境

yum instal gilbc.i686

(5)配置环境变量

编辑 /etc/profile文件 在最后加上环境变量配置

#set java environment
JAVA_HOME=jdk路径
CLASSPATH=.:$JAVA_HOME/lib.tools.jar
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATH

(6)重新加载配置文件

命令:source /etc/profile

(7)检查是否安装成功

java -version

弹出jdk版本  则表示安装成功

单机版安装

 1.下载zookeeper 并上传到linux 并解压

http://mirror.bit.edu.cn/apache/zookeeper/

2.进入主目录创建一个data文件

mkdir data

3.在data目录下创建一个myid文件

命令:touch myid

4.编辑myid文件 定义标识当前zookepper

我在这里设置为1  必须为数字

5.进入conf目录将zoo_sample.cfg 改名为zoo.cfg

6.编辑zoo.cfg在最后新增(感觉单机情况下不创建都不影响)

server.1 = 你的ip:2888:3888

2888为集群下各个节点通信的的端口

3888为当主节点挂掉 各个节点的投票端口

server.1  1为刚才myid配置的标识当前zookeeper的标识符

7.修改dataDir为刚才创建的data路径

dataDir=/usr/zookeeper-3.4.10/data

8.启动

通过bin目录 ./zkService start 启动 ./zkService stop停止  ./zkService stop 关闭

如果启动失败通过vi zookeeper.out  可以查看错误日志

集群版

为什么集群最小节点是3个

集群情况下,采用投票机制,存活节点超过集群节点半数以上 集群才可用。

1.比如集群2个节点  半数2/2=1 半数以上是2. 那么挂掉一个节点后集群不可用

2.集群节点是3个  半数3/2=1.5 那么至少存活2个节点集群可用,所以集群允许挂掉一个节点,

为什么集群节点建议为奇数个

1.比如3个集群节点。允许挂掉一个。

2.如果集群节点设置一个4个 4/4 半数以上是3,那么也只能允许挂掉一个节点 集群才可用

那么 3个节点和4个节点容错率都是一样 为何不节约服务器资源 配置3个呢

脑裂产生的数据不一致问题

大致就是master本身没挂 因为网络延迟 或者其他原因 其他节点访问不到 认为挂掉了。 重新投票 master  这个时候各个从节点部分还没有切换新的master   这个时候原来的master恢复, 会导致投票出多个master。不同从 从不同master同步数据。

集群版安装

为了方便,就不创建多个虚拟机。在同一台虚拟机器部署多个zookeeper 监听不同端口

1.将单机版的zookeeper复制3个

2.修改各个节点的zoo.conf的dataDir为当前节点的Data目录。以及端口改为不一致

node1

node2

 node3

 

3.修改各个节点的myid 数字不重复(1 2  3)

node1

node2

 

node3

4.配置各个节点的投票监听端口 以及数据同步端口

(1)在各个zoo.conf配置

server.1 = 192.168.65.128:2888:3888
server.2 = 192.168.65.128:2889:3889
server.3 = 192.168.65.128:2890:3890

1 2 3 分别标识myid(投票默认会投自己为leader在交换结果的时候投给最大数)

比如1 和2个节点分别投票自己。当交换结果 1比2大。则1投票2为leader

node1

 

node2

node3

5.创建批处理命令

6.赋予权限

[root@localhost zookeeper]# chmod 777 zkServerStartAll.sh
[root@localhost zookeeper]# chmod 777 zkServerStopAll.sh

8.编辑2个文件 增加启动批处理命令和关闭批处理命令

 9.按上面创建状态查看的批处理命令

10.执行命令查看启动状态

可以发现有一个leader和2个follower 如果leader挂掉了。会自动完成新一轮leader投票

zoo.cfg各个参数说明

摘自:https://www.cnblogs.com/xiohao/p/5541093.html

参数名

说明

clientPort

客户端连接server的端口,即对外服务端口,一般设置为2181吧。

dataDir

存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数dataLogDir, 事务日志的写性能直接影响zk性能。

tickTime

ZK中的一个时间单元。ZK中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime。

dataLogDir

事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升ZK性能。  
(No Java system property)

globalOutstandingLimit

最大请求堆积数。默认是1000。ZK运行的时候, 尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。  
(Java system property:zookeeper.globalOutstandingLimit. )

preAllocSize

预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。如果ZK的快照频率较大的话,建议适当减小这个参数。(Java system property:zookeeper.preAllocSize )

snapCount

每进行snapCount次事务日志输出后,触发一次快照(snapshot), 此时,ZK会生成一个snapshot.*文件,同时创建一个新的事务日志文件log.*。默认是100000.(真正的代码实现中,会进行一定的随机数处理,以避免所有服务器在同一时间进行快照而影响性能)(Java system property:zookeeper.snapCount )

traceFile

用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(Java system property:? requestTraceFile )

maxClientCnxns

单个客户端与单台服务器之间的连接数的限制,是ip级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台ZK服务器之间的连接数限制,不是针对指定客户端IP,也不是ZK集群的连接数限制,也不是单台ZK对所有客户端的连接数限制。指定客户端IP的限制策略,这里有一个patch,可以尝试一下:http://rdc.taobao.com/team/jm/archives/1334(No Java system property)

clientPortAddress

对于多网卡的机器,可以为每个IP指定不同的监听端口。默认情况是所有IP都监听 clientPort 指定的端口。  New in 3.3.0

minSessionTimeoutmaxSessionTimeout

Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 *  tickTime ~ 20 * tickTime 这个范围 New in 3.3.0

fsync.warningthresholdms

事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。(Java system property:  fsync.warningthresholdms )New in 3.3.4

autopurge.purgeInterval

在上文中已经提到,3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(No Java system property)  New in 3.4.0

autopurge.snapRetainCount

这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(No Java system property)  New in 3.4.0

electionAlg

在之前的版本中, 这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“TCP-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(No Java system property)

initLimit

Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许F在 initLimit 时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(No Java system property)

syncLimit

在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果L发出心跳包在syncLimit之后,还没有从F那里收到响应,那么就认为这个F已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(No Java system property)

leaderServes

默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(Java system property: zookeeper. leaderServes )。

server.x=[hostname]:nnnnn[:nnnnn]

这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于F和L之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。  
(No Java system property)

group.x=nnnnn[:nnnnn]weight.x=nnnnn

对机器分组和权重设置,可以  参见这里(No Java system property)

cnxTimeout

Leader选举过程中,打开一次连接的超时时间,默认是5s。(Java system property: zookeeper.  cnxTimeout )

zookeeper.DigestAuthenticationProvider
.superDigest

ZK权限设置相关,具体参见  《  使用super  身份对有权限的节点进行操作 》  和  《 ZooKeeper   权限控制 

skipACL

对所有客户端请求都不作ACL检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(Java system property:  zookeeper.skipACL )

forceSync

这个参数确定了是否需要在事务日志提交的时候调用 FileChannel .force来保证数据完全同步到磁盘。(Java system property: zookeeper.forceSync )

jute.maxbuffer

每个节点最大数据量,是默认是1M。这个限制必须在server和client端都进行设置才会生效。(Java system property: jute.maxbuffer )

原文地址:https://www.cnblogs.com/LQBlog/p/9354464.html