阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

初始ZooKeeper与集群搭建实例

152次阅读
没有评论

共计 8349 个字符,预计需要花费 21 分钟才能阅读完成。

zookeeper 是什么

Zookeeper, 一种分布式应用的协作服务, 是 Google 的 Chubby 一个开源的实现, 是 Hadoop 的分布式协调服务, 它包含一个简单的原语集, 应用于分布式应用的协作服务, 使得分布式应用可以基于这些接口实现诸如同步、配置维护和分集群或者命名的服务。

zookeeper 是一个由多个 service 组成的集群, 一个 leader, 多个 follower, 每个 server 保存一份数据部分, 全局数据一致, 分布式读写, 更新请求转发由 leader 实施.

更新请求顺序进行, 来自同一个 client 的更新请求按其发送顺序依次执行, 数据更新原子性, 一次数据更新要么成功, 要么失败, 全局唯一数据试图,client 无论连接到哪个 server, 数据试图是一致的.

为什么要用 zookeeper

大部分分布式应用需要一个主控、协调器或控制器来管理物理分布的子进程(如资源、任务分配等), 目前, 大部分应用需要开发私有的协调程序, 缺乏一个通用的机制. 协调程序的反复编写浪费, 且难以形成通用、伸缩性好的协调器,ZooKeeper:提供通用的分布式锁服务, 用以协调分布式应用

zookeeper 工作原理

zookeeper 的核心是原子广播, 这个机制保证了各个 server 之间的同步, 实现这个机制的协议叫做 Zab 协议.Zab 协议有两种模式, 他们分别是恢复模式和广播模式.

1. 当服务启动或者在领导者崩溃后,Zab 就进入了恢复模式, 当领导着被选举出来, 且大多数 server 都完成了和 leader 的状态同步后, 恢复模式就结束了. 状态同步保证了 leader 和 server 具有相同的系统状态.

2. 一旦 leader 已经和多数的 follower 进行了状态同步后, 他就可以开始广播消息了, 即进入广播状态. 这时候当一个 server 加入 zookeeper 服务中, 它会在恢复模式下启动, 发下 leader, 并和 leader 进行状态同步, 待到同步结束, 它也参与广播消息.

说明:

    广播模式需要保证 proposal 被按顺序处理, 因此 zk 采用了递增的事务 id 号 (zxid) 来保证. 所有的提议 (proposal) 都在被提出的时候加上了 zxid. 实现中 zxid 是一个 64 为的数字, 它高 32 位是 epoch 用来标识 leader 关系是否改变, 每次一个 leader 被选出来, 它都会有一个新的 epoch. 低 32 位是个递增计数.

    当 leader 崩溃或者 leader 失去大多数的 follower, 这时候 zk 进入恢复模式, 恢复模式需要重新选举出一个新的 leader, 让所有的 server 都恢复到一个正确的状态.

    zookeeper 服务一致维持在 Broadcast 状态, 直到 leader 崩溃了或者 leader 失去了大部分的 followers 支持.

    Broadcast 模式极其类似于分布式事务中的 2pc(two-phrase commit 两阶段提交):即 leader 提起一个决议, 由 followers 进行投票,leader 对投票结果进行计算决定是否通过该决议, 如果通过执行该决议(事务), 否则什么也不做.

Leader 选举

每个 Server 启动以后都询问其它的 Server 它要投票给谁, 对于其他 server 的询问,server 每次根据自己的状态都回复自己推荐的 leader 的 id 和上一次处理事务的 zxid(系统启动时每个 server 都会推荐自己), 收到所有 Server 回复以后, 就计算出 zxid 最大的哪个 Server, 并将这个 Server 相关信息设置成下一次要投票的 Server. 计算这过程中获得票数最多的的 sever 为获胜者, 如果获胜者的票数超过半数, 则改 server 被选为 leader. 否则, 继续这个过程, 直到 leader 被选举出来.leader 就会开始等待 server 连接,Follower 连接 leader, 将最大的 zxid 发送给 leader,Leader 根据 follower 的 zxid 确定同步点, 完成同步后通知 follower 已经成为 uptodate 状态,Follower 收到 uptodate 消息后, 又可以重新接受 client 的请求进行服务了.

zookeeper 的数据模型

层次化的目录结构, 命名符合常规文件系统规范

每个节点在 zookeeper 中叫做 znode, 并且其有一个唯一的路径标识

节点 Znode 可以包含数据和子节点, 但是 EPHEMERAL 类型的节点不能有子节点

Znode 中的数据可以有多个版本, 比如某一个路径下存有多个数据版本, 那么查询这个路径下的数据就需要带上版本

客户端应用可以在节点上设置监视器, 节点不支持部分读写, 而是一次性完整读写

Zoopkeeper 提供了一套很好的分布式集群管理的机制, 就是它这种基于层次型的目录树的数据结构, 并对树中的节点进行有效管理, 从而可以设计出多种多样的分布式的数据管理模型

Zookeeper 的节点

Znode 有两种类型, 短暂的(ephemeral)和持久的(persistent)

Znode 的类型在创建时确定并且之后不能再修改

短暂 znode 的客户端会话结束时,zookeeper 会将该短暂 znode 删除, 短暂 znode 不可以有子节点

持久 znode 不依赖于客户端会话, 只有当客户端明确要删除该持久 znode 时才会被删除

Znode 有四种形式的目录节点,PERSISTENT、PERSISTENT_SEQUENTIAL、EPHEMERAL、EPHEMERAL_SEQUENTIAL.

znode 可以被监控, 包括这个目录节点中存储的数据的修改, 子节点目录的变化等, 一旦变化可以通知设置监控的客户端, 这个功能是 zookeeper 对于应用最重要的特性,

通过这个特性可以实现的功能包括配置的集中管理, 集群管理, 分布式锁等等.

Zookeeper 的角色

领导者(leader), 负责进行投票的发起和决议, 更新系统状态

学习者(learner), 包括跟随者(follower)和观察者(observer).

follower 用于接受客户端请求并想客户端返回结果, 在选主过程中参与投票

Observer 可以接受客户端连接, 将写请求转发给 leader, 但 observer 不参加投票过程, 只同步 leader 的状态,observer 的目的是为了扩展系统, 提高读取速度

客户端(client), 请求发起方

Watcher

Watcher 在 ZooKeeper 是一个核心功能,Watcher 可以监控目录节点的数据变化以及子目录的变化, 一旦这些状态发生变化, 服务器就会通知所有设置在这个目录节点上的 Watcher, 从而每个客户端都很快知道它所关注的目录节点的状态发生变化, 而做出相应的反应

可以设置观察的操作:exists,getChildren,getData

可以触发观察的操作:create,delete,setData

znode 以某种方式发生变化时,“观察”(watch)机制可以让客户端得到通知.

可以针对 ZooKeeper 服务的“操作”来设置观察, 该服务的其他 操作可以触发观察.

比如, 客户端可以对某个客户端调用 exists 操作, 同时在它上面设置一个观察, 如果此时这个 znode 不存在, 则 exists 返回 false, 如果一段时间之后, 这个 znode 被其他客户端创建, 则这个观察会被触发, 之前的那个客户端就会得到通知.

Zookeeper 集群搭建

Zookeeper 不仅可以单机提供服务, 同时也支持多机组成集群来提供服务, 实际上 Zookeeper 还支持另外一种伪集群的方式, 也就是可以在一台物理机上运行多个 Zookeeper 实例.

Zookeeper 通过复制来实现高可用性, 只要集合体中半数以上的机器处于可用状态, 它就能够保证服务继续。

集群容灾性:

3 台机器只要有 2 台可用就可以选出 leader 并且对外提供服务(2n+ 1 台机器, 可以容 n 台机器挂掉)。

Zookeeper 伪分布式环境搭建:

1、去 Zookeeper 官网下载最新版本的 Zookeeper.

[root@localhost zookeeper-cluster]# pwd
/export/search/zookeeper-cluster
[root@localhost zookeeper-cluster]# ls
zookeeper-3.4.6.tar.gz
[root@localhost zookeeper-cluster]#
[root@localhost zookeeper-cluster]# tar -zxvf zookeeper-3.4.6.tar.gz
# 创建第一个集群节点
[root@localhost zookeeper-cluster]# mv zookeeper-3.4.6 zookeeper-3.4.6-node1
[root@localhost zookeeper-cluster]# cd zookeeper-3.4.6-node1
[root@localhost zookeeper-3.4.6-node1]# pwd
/export/search/zookeeper-cluster/zookeeper-3.4.6-node1
# 创建数据存放路径
[root@localhost zookeeper-3.4.6-node1]# mkdir data
[root@localhost zookeeper-3.4.6-node1]# cd ../
# 创建第二第三个集群节点
[root@localhost zookeeper-cluster]# cp zookeeper-3.4.6-node1 zookeeper-3.4.6-node2 -R
[root@localhost zookeeper-cluster]# cp zookeeper-3.4.6-node1 zookeeper-3.4.6-node3 -R
[root@localhost zookeeper-cluster]# ls
zookeeper-3.4.6-node1  zookeeper-3.4.6-node2  zookeeper-3.4.6-node3  zookeeper-3.4.6.tar.gz
[root@localhost zookeeper-cluster]# cd zookeeper-3.4.6-node1/conf/
[root@localhost conf]# ls
configuration.xsl  log4j.properties  zoo_sample.cfg
# 创建 zoo.cfg 文件
[root@localhost conf]# cp zoo_sample.cfg zoo.cfg

2、配置 zoo.cfg 文件:

#zookeeper-3.4.6-node1 的配置
tickTime=2000
initLimit=10
syncLimit=5
clientPort=2181
dataDir=/export/search/zookeeper-cluster/zookeeper-3.4.6-node1/data
server.1=localhost:2887:3887
server.2=localhost:2888:3888
server.3=localhost:2889:3889

#zookeeper-3.4.6-node2 的配置
tickTime=2000
initLimit=10
syncLimit=5
clientPort=2182
dataDir=/export/search/zookeeper-cluster/zookeeper-3.4.6-node2/data
server.1=localhost:2887:3887
server.2=localhost:2888:3888
server.3=localhost:2889:3889

#zookeeper-3.4.6-node3 的配置
tickTime=2000
initLimit=10
syncLimit=5
clientPort=2183
dataDir=/export/search/zookeeper-cluster/zookeeper-3.4.6-node3/data
server.1=localhost:2887:3887
server.2=localhost:2888:3888
server.3=localhost:2889:3889

参数说明:

tickTime=2000:
tickTime 这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔, 也就是每个 tickTime 时间就会发送一个心跳;

initLimit=10:
initLimit 这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端, 而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。
当已经超过 10 个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息, 那么表明这个客户端连接失败。总的时间长度就是 10*2000=20 秒;

syncLimit=5:
syncLimit 这个配置项标识 Leader 与 Follower 之间发送消息, 请求和应答时间长度, 最长不能超过多少个 tickTime 的时间长度, 总的时间长度就是 5 *2000=10 秒;

dataDir=/export/search/zookeeper-cluster/zookeeper-3.4.6-node1/data
dataDir 顾名思义就是 Zookeeper 保存数据的目录, 默认情况下 Zookeeper 将写数据的日志文件也保存在这个目录里;

clientPort=2181
clientPort 这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口接受客户端的访问请求;

server.1=localhost:2887:3887
server.2=localhost:2888:3888
server.3=localhost:2889:3889
server.A=B:C:D:
A 是一个数字, 表示这个是第几号服务器,B 是这个服务器的 ip 地址
C 第一个端口用来集群成员的信息交换, 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口
D 是在 leader 挂掉时专门用来进行选举 leader 所用

3、创建 ServerID 标识

除了修改 zoo.cfg 配置文件, 集群模式下还要配置一个文件 myid, 这个文件在 dataDir 目录下, 这个文件里面就有一个数据就是 A 的值, 在上面配置文件中 zoo.cfg 中配置的 dataDir 路径中创建 myid 文件

[root@localhost zookeeper-cluster]# cat /export/search/zookeeper-cluster/zookeeper-3.4.6-node1/data/myid
1
[root@localhost zookeeper-cluster]# cat /export/search/zookeeper-cluster/zookeeper-3.4.6-node2/data/myid
22
[root@localhost zookeeper-cluster]# cat /export/search/zookeeper-cluster/zookeeper-3.4.6-node3/data/myid
3

4、启动 zookeeper

[root@localhost zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node1/bin/zkServer.sh start
JMX enabled by default
Using config: /export/search/zookeeper-cluster/zookeeper-3.4.6-node1/bin/../conf/zoo.cfg
Starting zookeeper … STARTED
[root@localhost zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node2/bin/zkServer.sh start
JMX enabled by default
Using config: /export/search/zookeeper-cluster/zookeeper-3.4.6-node2/bin/../conf/zoo.cfg
Starting zookeeper … STARTED
[root@localhost zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node3/bin/zkServer.sh start
JMX enabled by default
Using config: /export/search/zookeeper-cluster/zookeeper-3.4.6-node3/bin/../conf/zoo.cfg
Starting zookeeper … STARTED

5、检测集群是否启动

[root@localhost zookeeper-cluster]# echo stat|nc localhost 2181
[root@localhost zookeeper-cluster]# echo stat|nc localhost 2182
[root@localhost zookeeper-cluster]# echo stat|nc localhost 2183
# 或者
[root@localhost zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node1/bin/zkCli.sh
[root@localhost zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node2/bin/zkCli.sh
[root@localhost zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node3/bin/zkCli.sh

伪集群部署注意事项:

在一台机器上部署了 3 个 server;需要注意的是 clientPort 这个端口如果在 1 台机器上部署多个 server, 那么每台机器都要不同的 clientPort.

比如 server.1 是 2181,server.2 是 2182,server.3 是 2183

最后几行唯一需要注意的地方就是

server.X 这个数字就是对应 data/myid 中的数字。你在 3 个 server 的 myid 文件中分别写入了 1,2,3, 那么每个 server 中的 zoo.cfg 都配 server.1,server.2,server.3 就 OK 了

————————————– 分割线 ————————————–

Ubuntu 14.04 安装分布式存储 Sheepdog+ZooKeeper  http://www.linuxidc.com/Linux/2014-12/110352.htm

CentOS 6 安装 sheepdog 虚拟机分布式储存  http://www.linuxidc.com/Linux/2013-08/89109.htm

ZooKeeper 集群配置 http://www.linuxidc.com/Linux/2013-06/86348.htm

使用 ZooKeeper 实现分布式共享锁 http://www.linuxidc.com/Linux/2013-06/85550.htm

分布式服务框架 ZooKeeper — 管理分布式环境中的数据 http://www.linuxidc.com/Linux/2013-06/85549.htm

ZooKeeper 集群环境搭建实践 http://www.linuxidc.com/Linux/2013-04/83562.htm

ZooKeeper 服务器集群环境配置实测 http://www.linuxidc.com/Linux/2013-04/83559.htm

ZooKeeper 集群安装 http://www.linuxidc.com/Linux/2012-10/72906.htm

正文完
星哥说事-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计8349字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中