Zookeeper
服务端
工作机制
Zookeeper从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据
,然后接受观察者的注册
,一旦这些数据的状态发生变化,Zookeeper 就将负责通知已经在Zookeeper上注册的那些观察者
做出相应的反应。
特点
- Zookeeper:一个领导者(Leader),多个跟随者(Follower)组成的集群。
- 集群中只要有
半数以上
节点存活,Zookeeper集群就能正常服务。所以Zookeeper适合安装奇数台服务器
。 - 全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
- 更新请求顺序执行,来自同一个Client的更新请求按其发送顺序依次执行。
- 数据更新原子性,一次数据更新要么成功,要么失败。
- 实时性,在一定时间范围内,Client能读到最新数据。
数据结构
ZooKeeper 数据模型的结构与 Unix 文件系统
很类似,整体上可以看作是一棵树,每个 节点称做一个 ZNode。每一个 ZNode 默认能够存储 1MB
的数据,每个 ZNode 都可以通过其路径唯一标识
。
图片
应用场景
提供的服务包括:统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下线、软负载均衡等。
统一命名服务
在分布式环境下,经常需要对应用/服 务进行统一命名,便于识别。
例如:IP不容易记住,而域名容易记住。
统一配置管理
分布式环境下,配置文件同步:
一般要求一个集群中,所有节点的配置信息是一致的,比如 Kafka 集群。
对配置文件修改后,希望能够快速同步到各个 节点上。
配置管理可交由 Zookeeper 实现:
- 可将配置信息写入ZooKeeper上的一个Znode。
- 各个客户端服务器监听这个Znode。
- 一 旦Znode中的数据被修改,ZooKeeper将通知各个客户端服务器。
统一集群管理
- 分布式环境中,实时掌握每个节点的状态是必要的。
- 可根据节点实时状态做出一些调整。
- ZooKeeper可以实现实时监控节点状态变化
- 可将节点信息写入ZooKeeper上的一个ZNode。
- 监听这个ZNode可获取它的实时状态变化。
Zookeeper 安装
下载ZooKeeper:http://pan.baidu.com/s/1pJlwbR9
解压:tar -zxvf zookeeper-3.4.5.tar.gz 重命名:mv zookeeper-3.4.5 zk
Zookeeper 参数详解
# 通信心跳时间,Zookeeper服务器与客户端心跳时间,单位毫秒
tickTime=2000
# LF初始通信时限
# Leader 和 Follower 初始连接时能容忍的最多心跳数(tickTime 的数量)
initLimit=10
# LF 同步通信时限
# Leader 和 Follower 之间通信时间如果超过 syncLimit * tickTime,leader 认为 Follower 死掉,从服务器列表中删除 Follower
syncLimit=5
# 保存 Zookeeper 中的数据
# 默认存放在 tmp 目录,容易被 Linux 系统定期删除,所以一般不用默认的 tmp 目录
dataDir=/opt/module/zookeeper-3.5.7/zkData
# 客户端连接端口,通常不做修改
clientPort=2181
Zookeeper 集群配置
配置
添加服务器编号的配置文件,在配置文件中 dataDir=/opt/module/zookeeper-3.5.7/zkData
下创建 myid
文件,在文件中添加与 server 对应的编号
。
修改配置文件,在 bin/zoo_sample.cfg
后面追加对应主机的配置信息,每一台主机对应的配置文件都要进行修改。
server.2=192.168.3.19:2888:3888
server.3=192.168.3.33:2888:3888
server.4=192.168.3.34:2888:3888
配置文件详解
server.A=B:C:D
A:是一个数据,表示这是几号服务器,对应每台服务器创建的 myid
里面的数字;Zookeeper 启动时读取此文件,拿到里面的数据与 zoo.cfg 里面的配置信息比 较从而判断到底是哪个 server
。
B:对应的服务器地址;
C:是这个服务器 Follower 与集群中的 Leader 服务器交换信息的端口;
D:是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
运行
分别启动对应的 Zookeeper,我这边配置的是三台Zookeeper服务器;
启动第一台的 Zookeeper 的状态:
[root@localhost zookeeper-3.5.7]# sh ./bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Error contacting service. It is probably not running.
此时提示 Error contacting service. It is probably not running.
因为现在还只启动一台 Zookeeper,不满足 半数以上
的节点存活,所以现在不能正常提供服务。
后面依次启动对应的 Zookeeper 服务。
第二台启动与对应的状态
[root@localhost zookeeper-3.5.7]# sh ./bin/zkServer.sh start
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[root@localhost zookeeper-3.5.7]# sh ./bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: leader
第三台启动与对应的状态
[root@localhost zookeeper-3.5.7]# sh ./bin/zkServer.sh start
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[root@localhost zookeeper-3.5.7]# sh ./bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: follower
第一台服务器的状态
[root@localhost zookeeper-3.5.7]# sh ./bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: follower
到这里 Zookeeper 集群的配置与启动就搞定了。
Zookeeper 的选举机制
第一次启动的时候
以我上面的三个 Zookeeper 服务器集群为例:
服务器1启动,发起一次选举。服务器1投自己一票。此时服务器1票数一票,不够半数以上(2票),选举无法完成,服务器1状态保持为 LOOKING;
服务器2启动,再发起一次选举。服务器1和2分别投自己一票并交换选票信息:此时服务器1发现服务器2的
myid
比自己目前投票推举的(服务器1) 大,更改选票为推举服务器2。此时服务器1票数0票,服务器2票数2票,此时服务器2的票数已经超过半数,服务器2当选Leader。服务器1更改状态为FOLLOWING,服务器2更改状态为LEADING;服务器3启动,发起一次选举。此时服务器1,2已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器2为2票,服务器3为 1票。此时服务器3服从多数,更改选票信息为服务器2,并更改状态为FOLLOWING;
非第一次启动的时候
这里首先还要先讲出关于Zookeeper集群
与Client端
的一些其他概念:
SID:服务器ID
。用来唯一标识一台 ZooKeeper集群中的机器,每台机器不能重复,和 myid
一致。
ZXID:事务id
。ZXID是一个事务ID,用来标识一次服务器状态的变更
。在某一时刻, 集群中的每台机器的ZXID值不一定完全一 致,这和 ZooKeeper 服务器对于客户端 更新请求
的处理逻辑有关。
Epoch:每个Leader任期的代号
。没有Leader时同一轮投票过程中的逻辑时钟值是相同的。每投完一次票这个数据就会增加。
Zookeeper 会发生选举的场景
- 服务器初始化启动(上面描述了)
- 服务器运行期间无法和 Leader 保持连接
一台服务器进入选举的两种状态
集群中本来就已经存在一个 Leader:
机器试图去选举Leader时,会被告知当前服务器的Leader信息,对于该机器来说,仅仅需要和Leader机器建立连 接,并进行状态同步即可。
集群中确实不存在 Leader:
假设ZooKeeper由5台服务器组成,SID分别为1、2、3、4、5,ZXID分别为8、8、8、7、7,并且此时SID为3的服务器是Leader。某一时刻, 3和5服务器出现故障,因此开始进行Leader选举。
选举规则:
- EPOCH大的直接胜出;
- EPOCH相同,事务id大的胜出
- 事务id相同,服务器id大的胜出;
集群启动脚本
#!/bin/bash
case $1 in
"start"){
for i in 192.168.3.19 192.168.3.33 192.168.3.34
do
echo ----------- zookeeper $i 启动 -------------
ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh start"
done
}
;;
"stop"){
for i in 192.168.3.19 192.168.3.33 192.168.3.34
do
echo ----------- zookeeper $i 停止 -------------
ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh stop"
done
}
;;
"status"){
for i in 192.168.3.19 192.168.3.33 192.168.3.34
do
echo ----------- zookeeper $i 状态 -------------
ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh status"
done
}
;;
esac
[root@localhost ~]# sh zk.sh start
----------- zookeeper 192.168.3.19 启动 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
----------- zookeeper 192.168.3.33 启动 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
----------- zookeeper 192.168.3.34 启动 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[root@localhost ~]# sh zk.sh status
----------- zookeeper 192.168.3.19 状态 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: follower
----------- zookeeper 192.168.3.33 状态 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: leader
----------- zookeeper 192.168.3.34 状态 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: follower
[root@localhost ~]# sh zk.sh stop
----------- zookeeper 192.168.3.19 停止 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Stopping zookeeper ... STOPPED
----------- zookeeper 192.168.3.33 停止 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Stopping zookeeper ... STOPPED
----------- zookeeper 192.168.3.34 停止 -------------
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg
Stopping zookeeper ... STOPPED
客户端
基本语法
启动客户端
先进入 Zookeeper 的安装目录:
bin/zkCli.sh -server 192.168.3.34
znode 节点数据信息
查看当前 znode 中所有包含的内容
[zk: 192.168.3.34(CONNECTED) 2] ls /
[zookeeper]
查看当前 znode 中所有包含的详细内容
[zk: 192.168.3.34(CONNECTED) 3] ls -s /
[zookeeper]cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
参数详解
czxid:创建节点的事务 zxid
每次修改 ZooKeeper 状态都会产生一个 ZooKeeper 事务 ID。事务 ID 是 ZooKeeper 中所 有修改总的次序。每次修改都有唯一的 zxid,如果 zxid1 小于 zxid2,那么 zxid1 在 zxid2 之 前发生。
- ctime:znode 被创建的毫秒数(从 1970 年开始)
- mzxid:znode 最后更新的事务 zxid
- mtime:znode 最后修改的毫秒数(从 1970 年开始)
- pZxid:znode 最后更新的子节点 zxid
- cversion:znode 子节点变化号,znode 子节点修改次数
dataversion:znode 数据变化号
- aclVersion:znode 访问控制列表的变化号
- ephemeralOwner:如果是临时节点,这个是 znode 拥有者的 session id。如果不是 临时节点则是 0。
dataLength:znode 的数据长度
numChildren:znode 子节点数量
节点类型(持久/短暂/有序号/无序号)
简介
(1)持久化目录节点:客户端与Zookeeper断开连接后,该节点依旧存在
(2)持久化顺序编号目录节点:客户端与Zookeeper断开连接后,该节点依旧存 在,只是Zookeeper给该节点名称进行顺序编号
(3)临时目录节点:客户端与Zookeeper断开连接后,该节点被删除
(4)临时顺序编号目录节点:客户端与 Zookeeper 断开连接后 , 该 节 点 被 删 除 , 只 是 Zookeeper给该节点名称进行顺序编号。
实操
持久节点无序号
创建节点
[zk: 192.168.3.34(CONNECTED) 4] create /lol "luoshou"
Created /lol
[zk: 192.168.3.34(CONNECTED) 5] ls /
[lol, zookeeper]
[zk: 192.168.3.34(CONNECTED) 7] create /lol/noxus "delaiwen"
Created /lol/noxus
[zk: 192.168.3.34(CONNECTED) 8] ls /
[lol, zookeeper]
[zk: 192.168.3.34(CONNECTED) 9] ls /lol
[noxus]
获取节点的值
[zk: 192.168.3.34(CONNECTED) 11] get -s /lol
luoshou
cZxid = 0x500000002
ctime = Thu Mar 10 23:58:31 CST 2022
mZxid = 0x500000002
mtime = Thu Mar 10 23:58:31 CST 2022
pZxid = 0x500000003
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 7
numChildren = 1
持久节点有序号
创建节点
[zk: 192.168.3.34(CONNECTED) 1] create -s /lol/demacia "dema"
Created /lol/demacia0000000001
[zk: 192.168.3.34(CONNECTED) 5] create -s /lol/demacia "dema"
Created /lol/demacia0000000002
获取节点的值
[zk: 192.168.3.34(CONNECTED) 4] ls /lol
[demacia0000000001, noxus]
[zk: 192.168.3.34(CONNECTED) 6] ls /lol
[demacia0000000001, demacia0000000002, noxus]
临时节点无序号
创建节点
[zk: 192.168.3.34(CONNECTED) 1] create -e /lol/zaun "mengduo"
Created /lol/zaun
获取节点的值
[zk: 192.168.3.34(CONNECTED) 4] ls /lol
[demacia0000000001, demacia0000000002, noxus, zaun]
临时节点有序号
创建节点
[zk: 192.168.3.34(CONNECTED) 8] create -e -s /lol/zaun "mengduo"
Created /lol/zaun0000000004
获取节点的值
[zk: 192.168.3.34(CONNECTED) 11] ls /lol
[demacia0000000001, demacia0000000002, noxus, zaun, zaun0000000004]
退出客户端后再启动查看
重启后临时节点已经无了:
[zk: 192.168.3.34(CONNECTED) 0] ls /lol
[demacia0000000001, demacia0000000002, noxus]
修改节点中的值
[zk: 192.168.3.34(CONNECTED) 1] get -s /lol/noxus
delaiwen
cZxid = 0x500000003
ctime = Fri Mar 11 00:00:07 CST 2022
mZxid = 0x500000003
mtime = Fri Mar 11 00:00:07 CST 2022
pZxid = 0x500000003
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 8
numChildren = 0
[zk: 192.168.3.34(CONNECTED) 2] set -s /lol/noxus "luoshou"
cZxid = 0x500000003
ctime = Fri Mar 11 00:00:07 CST 2022
mZxid = 0x50000000f
mtime = Fri Mar 11 00:22:40 CST 2022
pZxid = 0x500000003
cversion = 0
dataVersion = 1
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 7
numChildren = 0
[zk: 192.168.3.34(CONNECTED) 3] get -s /lol/noxus
luoshou
cZxid = 0x500000003
ctime = Fri Mar 11 00:00:07 CST 2022
mZxid = 0x50000000f
mtime = Fri Mar 11 00:22:40 CST 2022
pZxid = 0x500000003
cversion = 0
dataVersion = 1
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 7
numChildren = 0
监听器
简介
客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、节点删除、子目 录节点增加删除)时,ZooKeeper 会通知客户端。监听机制保证 ZooKeeper 保存的任何的数 据的任何改变都能快速的响应到监听了该节点的应用程序。
原理
- 首先要有一个 main() 线程
- 在 main 线程中创建 Zookeeper 客户端,这时就会创建两个线程,一个负责网络连接通信(connect),一个负责监听(listener)
- 通过 connect 线程将注册的监听事件发送给 Zookeeper。
- 在 Zookeeper 的注册监听器列表中将注册的监听事件添加到列表中
- Zookeeper 监听到有数据或路径变化,就会将这个消息发送给 listener 线程
- listener 线程内部调用了 process() 方法
常见的监听
监听节点数据的变化
get path [watch]
监听子节点增减的变化
ls path [watch]
实操
节点值变化的监听
四号机器注册监听
[zk: localhost:2181(CONNECTED) 4] get -w /lol
luoshou
三号机器修改对应节点的数值
[zk: 192.168.3.34(CONNECTED) 4] set /lol "delaiwen"
四号机器触发监听
[zk: localhost:2181(CONNECTED) 5]
WATCHER::
WatchedEvent state:SyncConnected type:NodeDataChanged path:/lol
节点的子节点变化的监听(路径变化)
四号机器注册监听
[zk: localhost:2181(CONNECTED) 5] ls -w /lol
[demacia0000000001, demacia0000000002, noxus]
三号机器修改对应节点,创建新的子节点
[zk: 192.168.3.34(CONNECTED) 5] create /lol/yordles "timo"
Created /lol/yordles
四号机器触发监听
[zk: localhost:2181(CONNECTED) 6]
WATCHER::
WatchedEvent state:SyncConnected type:NodeChildrenChanged path:/lol
节点删除
# 删除单节点
[zk: localhost:2181(CONNECTED) 7] delete /lol/yordles
# 删除有子节点的节点
[zk: localhost:2181(CONNECTED) 9] deleteall /lol