在 2006 年,Google 发表了一篇名为 The Chubby lock service for loosely-coupled distributed systems 的论文,其中描述了一个分布式锁服务 Chubby 的设计理念和实现原理;作为 Google 内部的一个基础服务,虽然 Chubby 与 GFS、Bigtable 和 MapReduce 相比并没有那么大的名气,不过它在 Google 内部也是非常重要的基础设施。
zookeeper-banner相比于名不见经传的 Chubby,作者相信 Zookeeper 更被广大开发者所熟知,作为非常出名的分布式协调服务,Zookeeper 有非常多的应用,包括发布订阅、命名服务、分数是协调和分布式锁,这篇文章主要会介绍 Zookeeper 的实现原理以及常见的应用,但是在具体介绍 Zookeeper 的功能和原理之前,我们会简单介绍一下分布式锁服务 Chubby 以及它与 Zookeeper 之间的异同。
Chubby
作为分布式锁服务,Chubby 的目的就是允许多个客户端对它们的行为进行同步,同时也能够解决客户端的环境相关信息的分发和粗粒度的同步问题,GFS 和 Bigtable 都使用了 Chubby 以解决主节点的选举等问题。在网络上你很难找到关于 Chubby 的相关资料,我们只能从 The Chubby lock service for loosely-coupled distributed systems 一文中窥见它的一些设计思路、技术架构等信息。
虽然 Chubby 和 Zookeeper 有着比较相似的功能,但是它们的设计理念却非常不同,Chubby 在论文的摘要中写道:
We describe our experiences with the Chubby lock service, which is intended to provide coarse-grained locking as well as reliable (though low-volume) storage for a loosely-coupled distributed system.
从论文的摘要中我们可以看出 Chubby 首先被定义成一个分布式的锁服务,它能够为分布式系统提供松耦合、粗粒度的分布式锁功能,然而我们并不能依赖于它来做一些重量的数据存储。
chubby-keywords
Chubby 在设计时做了两个重要的设计决定,一是提供完整、独立的分布式锁服务而非一个用于共识的库或者服务,另一个是选择提供小文件的的读写功能,使得主节点能够方便地发布自己的状态信息。
系统架构
Chubby 总共由两部分组成,一部分是用于提供数据的读写接口并管理相关的配置数据的服务端,另一部分就是客户端使用的 SDK,为了提高系统的稳定性,每一个 Chubby 单元都由一组服务器组成,它会使用 共识算法 从集群中选举出主节点。
chubby-system-structure
在一个 Chubby Cell 中,只有主节点会对外提供读写服务,其他的节点其实都是当前节点的副本(Replica),它们只是维护一个数据的拷贝并会在主节点更新时对它们持有的数据库进行更新;客户端通过向副本发送请求获取主节点的位置,一旦它获取到了主节点的位置,就会向所有的读写请求发送给主节点,直到其不再响应为止。写请求都会通过一致性协议传播到所有的副本中,当集群中的多数节点都同步了请求时就会认为当前的写入已经被确认。
当主节点宕机时,副本会在其租约到期时重新进行选举,副本节点如果在宕机几小时还没有回复,那么系统就会从资源池中选择一个新的节点并在该节点上启动 Chubby 服务并更新 DNS 表。
chubby-dns-update
主节点会不停地轮训 DNS 表获取集群中最新的配置,每次 DNS 表更新时,主节点都会将新的配置下发给 Chubby 集群中其他的副本节点。
由于这篇文章我们主要介绍的是 Zookeeper,所以对于 Chubby 就介绍到这里了,感兴趣的读者可以查看 The Chubby lock service for loosely-coupled distributed systems 了解更多相关的内容。
Zookeeper
很多人都会说 Zookeeper 是 Chubby 的一个开源实现,这其实是有问题的,它们两者只不过都提供了具有层级结构的命名空间:
hierachical-namespaceChubby 和 Zookeeper 从最根本的设计理念上就有着非常明显的不同,在上文中我们已经提到了 Chubby 被设计成一个分布式的锁服务,它能够为分布式系统提供松耦合、粗粒度的分布式锁功能,然而我们并不能依赖于它来做一些重量的数据存储,而 Zookeeper 的论文在摘要中介绍到,它是一个能够为分布式系统提供协调功能的服务:
In this paper, we describe ZooKeeper, a service for co- ordinating processes of distributed applications.
Zookeeper 的目的是为客户端构建复杂的协调功能提供简单、高效的核心 API,相比于 Chubby 对外提供已经封装好的更上层的功能,Zookeeper 提供了更抽象的接口以便于客户端自行实现想要完成的功能。
chubby-and-zookeeperChubby 直接为用户提供封装好的锁和解锁的功能,内部完成了锁的实现,只是将 API 直接暴露给用户,而 Zookeeper 却需要用户自己实现分布式锁;总的来说,使用 Zookeeper 往往需要客户端做更多的事情,但是也享有更多的自由。
技术架构
与 Chubby 集群中,多个节点只有一个能够对外提供服务不同,Zookeeper 集群中所有的节点都可以对外提供服务,但是集群中的节点也分为主从两种节点,所有的节点都能处理来自客户端的读请求,但是只有主节点才能处理写入操作:
zookeeper-system-structure这里所说的 Zookeeper 集群主从节点实际上分别是 leader 和 Follower 节点。
客户端使用 Zookeeper 时会连接到集群中的任意节点,所有的节点都能够直接对外提供读操作,但是写操作都会被从节点路由到主节点,由主节点进行处理。
Zookeeper 在设计上提供了以下的两个基本的顺序保证,线性写和先进先出的客户端顺序:
zookeeper-guarantees其中线性写是指所有更新 Zookeeper 状态的请求都应该按照既定的顺序串行执行;而先进先出的客户端顺序是指,所有客户端发出的请求会按照发出的顺序执行。
Zab 协议
在我们简单介绍 Zookeeper 的技术架构之后,这一节将谈及 Zookeeper 中的 Zab 协议,Zookeeper 的 Zab 协议是为了解决分布式一致性而设计出的一种协议,它的全称是 Zookeeper 原子广播协议,它能够在发生崩溃时快速恢复服务,达到高可用性。
zookeeper-atomic-broadcast
如上一节提到的,客户端在使用 Zookeeper 服务时会随机连接到集群中的一个节点,所有的读请求都会由当前节点处理,而写请求会被路由给主节点并由主节点向其他节点广播事务,与 2PC 非常相似,如果在所有的节点中超过一半都返回成功,那么当前写请求就会被提交。
当主节点崩溃时,其他的 Replica 节点会进入崩溃恢复模式并重新进行选举,Zab 协议必须确保提交已经被 leader 提交的事务提案,同时舍弃被跳过的提案,这也就是说当前集群中最新 ZXID 最大的服务器会被选举成为 leader 节点;但是在正式对外提供服务之前,新的 leader 也需要先与 Follower 中的数据进行同步,确保所有节点拥有完全相同的提案列表。
zookeeper-zxid
在上面提到 ZXID 其实就是 Zab 协议中设计的事务编号,它是一个 64 位的整数,其中最低的 32 位是一个计数器,每当客户端修改 Zookeeper 集群状态时,leader 都会以当前 ZXID 值作为提案的编号创建一个新的事务,在这之后会将当前计数器加一;ZXID 中高的 32 位表示当前 leader 的任期,每当发生崩溃进入恢复模式,集群的 leader 重新选举之后都会将 epoch 加一。
Zab 和 paxos
Zab 和 paxos 协议在实现上其实有非常多的相似点,例如:
主节点会向所有的从节点发出提案;
主节点在接收到一组从节点中 50% 以上节点的确认后,才会认为当前提案被提交了;
因为它们有一些相同的特点,所以有的观点会认为 Zab 是 paxos 的一个简化版本,但是 Zab 和 paxos 在设计理念上就有着比较大的不同,两者的主要区别就在于 Zab 主要是为构建高可用的主备系统设计的,而 paxos 能够帮助工程师搭建具有一致性的状态机系统。
作为一个一致性状态机系统,它能够保证集群中任意一个状态机副本都按照客户端的请求执行了相同顺序的请求,即使来自客户端请求是异步的并且不同客户端的接收同一个请求的顺序不同,集群中的这些副本就是会使用 paxos 或者它的变种对提案达成一致;在集群运行的过程中,如果主节点出现了错误导致宕机,其他的节点会重新开始进行选举并处理未提交的请求。
但是在类似 Zookeeper 的高可用主备系统中,所有的副本都需要对增量的状态更新顺序达成一致,这些状态更新的变量都是由主节点创建并发送给其他的从节点的,每一个从节点都会严格按照顺序逐一的执行主节点生成的状态更新请求,如果 Zookeeper 集群中的主节点发生了宕机,新的主节点也必须严格按照顺序对请求进行恢复。
总的来说,使用状态更新节点数据的主备系统相比根据客户端请求改变状态的状态机系统对于请求的执行顺序有着更严格的要求。
这一节对于 Zab 和 paxos 区别的介绍大都来自于 Zab vs. paxos ,有兴趣的读者可以阅读相关的内容。
实现原理
这一节会简单介绍 Zookeeper 的一些实现原理,重点会介绍以下几个部分的内容:文件系统、临时/持久节点和通知的实现原理。
文件系统
了解或者使用 Zookeeper 或者其他分布式协调服务的读者对于使用类似文件系统的方式比较熟悉,与 Unix 中的文件系统份上相似的是,Zookeeper 中也使用文件系统组织系统中存储的资源。
zookeeper-znodeZookeeper 中其实并没有文件和文件夹的概念,它只有一个 Znode 的概念,它既能作为容器存储数据,也可以持有其他的 Znode 形成父子关系。
Znode 其实有 PERSISTENT
、PERSISTENT_SEQUENTIAL
、EPHEMERAL
和 EPHEMERAL_SEQUENTIAL
四种类型,它们是临时与持久、顺序与非顺序两个不同的方向组合成的四种类型。
临时节点是客户端在连接 Zookeeper 时才会保持存在的节点,一旦客户端和服务端之间的连接中断,当前连接持有的所有节点都会被删除,而持久的节点不会随着会话连接的中断而删除,它们需要被客户端主动删除;Zookeeper 中另一种节点的特性就是顺序和非顺序,如果我们使用 Zookeeper 创建了顺序的节点,那么所有节点就会在名字的末尾附加一个序列号,序列号是一个由父节点维护的单调递增计数器。
通知
常见的通知机制往往都有两种,一种是客户端使用『拉』的方式从服务端获取最新的状态,这种方式获取的状态很有可能都是过期的,需要客户端不断地通过轮训的方式获取服务端最新的状态,另一种方式就是在客户端订阅对应节点后由服务端向所有订阅者推送该节点的变化,相比于客户端主动获取数据的方式,服务端主动推送更能够保证客户端数据的实时性。
作为分布式协调工具的 Zookeeper 就实现了这种服务端主动推送请求的机制,也就是 Watch
,当客户端使用 getData
等接口获取 Znode 状态时传入了一个用于处理节点变更的回调,那么服务端就会主动向客户端推送节点的变更:
public byte[] getData(final String path, Watcher watcher, Stat stat)
从这个方法中传入的 Watcher
对象实现了相应的 process
方法,每次对应节点出现了状态的改变,WatchManager
都会通过以下的方式调用传入 Watcher
的方法:
Set<Watcher> triggerWatch(String path, EventType type, Set<Watcher> supress) {
WatchedEvent e = new WatchedEvent(type, KeeperState.SyncConnected, path);
Set<Watcher> watchers;
synchronized (this) {
watchers = watchTable.remove(path);
}
for (Watcher w : watchers) {
w.process(e);
}
return watchers;
}
Zookeeper 中的所有数据其实都是由一个名为 DataTree
的数据结构管理的,所有的读写数据的请求最终都会改变这颗树的内容,在发出读请求时可能会传入 Watcher
注册一个回调函数,而写请求就可能会触发相应的回调,由 WatchManager
通知客户端数据的变化。
zookeeper-watcher
通知机制的实现其实还是比较简单的,通过读请求设置 Watcher
监听事件,写请求在触发事件时就能将通知发送给指定的客户端。
会话
在 Zookeeper 中一个非常重要的概念就是会话,客户端与服务器之间的任何操作都与 Zookeeper 中会话的概念有关,比如我们再上一节中提到的临时节点生命周期以及通知的机制等等,它们都是基于会话来实现的。
每当客户端与服务端建立连接时,其实创建了一个新的会话,在每一个会话的生命周期中,Zookeeper 会在不同的会话状态之间进行切换,比如说:CONNECTING、CONNECTED、RECONNECTING、RECONNECTED 和 CLOSE 等。
zookeeper-session-states
作为 Zookeeper 中最重要的概念之一,每一个 Session 都包含四个基本属性,会话的唯一 ID、会话超时时间、下次会话的超时时间点和表示会话是否被关闭的标记。
SessionTracker
是 Zookeeper 中的会话管理器,它负责所有会话的创建、管理以及清理工作,但是它本身只是一个 Java 的接口,定义了一系列用于管理会话的相关接口:
public interface SessionTracker {
public static interface Session {
long getSessionId();
int getTimeout();
boolean isClosing();
}
public static interface SessionExpirer {
void expire(Session session);
long getServerId();
}
long createSession(int sessionTimeout);
boolean trackSession(long id, int to);
boolean commitSession(long id, int to);
boolean touchSession(long sessionId, int sessionTimeout);
void setSessionClosing(long sessionId);
void shutdown();
void removeSession(long sessionId);
}
与其他的长连接一样,Zookeeper 中的会话也需要客户端与服务端之间进行心跳检测,客户端会在超时时间内向服务端发送心跳请求来保证会话不会被服务端关闭,一旦服务端检测到某一个会话长时间没有收到心跳包就会中断当前会话释放服务器上的资源。
应用
作为分布式协调服务,Zookeeper 能够为集群提供分布式一致性的保证,我们可以通过 Zookeeper 提供的最基本的 API 组合成更高级的功能:
public class Zookeeper {
public String create(final String path, byte data[], List<ACL> acl, CreateMode createMode)
public void delete(final String path, int version) throws InterruptedException, KeeperException
public Stat exists(final String path, Watcher watcher) throws KeeperException, InterruptedException
public byte[] getData(final String path, Watcher watcher, Stat stat) throws KeeperException, InterruptedException
public Stat setData(final String path, byte data[], int version) throws KeeperException, InterruptedException
public void sync(final String path, VoidCallback cb, Object ctx)
}
在这一节中,我们将介绍如何在生产环境中使用 Zookeeper 实现发布订阅、命名服务、分布式协调以及分布式锁等功能。
发布订阅
通过 Zookeeper 进行数据的发布与订阅其实可以说是它提供的最基本功能,它能够允许多个客户端同时订阅某一个节点的变更并在变更发生时执行我们预先设置好的回调函数,在运行时改变服务的配置和行为:
ZooKeeper zk = new ZooKeeper("localhost", 3000, null);
zk.getData("/config", new Watcher() {
public void process(WatchedEvent watchedEvent) {
System.out.println(watchedEvent.toString());
}
}, null);
zk.setData("/config", "draven".getBytes(), 0);
// WatchedEvent state:SyncConnected type:NodeDataChanged path:/config
发布与订阅是 Zookeeper 提供的一个最基本的功能,它的使用非常的简单,我们可以在 getData
中传入实现 process
方法的 Watcher
对象,在每次改变节点的状态时,process
方法都会被调用,在这个方法中就可以对变更进行响应动态修改一些行为。
通过 Zookeeper 这个中枢,每一个客户端对节点状态的改变都能够推送给节点的订阅者,在发布订阅模型中,Zookeeper 的每一个节点都可以被理解成一个主题,每一个客户端都可以向这个主题推送详细,同时也可以订阅这个主题中的消息;只是 Zookeeper 引入了文件系统的父子层级的概念将发布订阅功能实现得更加复杂。
public static enum EventType {
None(-1),
NodeCreated(1),
NodeDeleted(2),
NodeDataChanged(3),
nodechildrenChanged(4);
}
如果我们订阅了一个节点的变更信息,那么该节点的子节点出现数量变更时就会调用 process
方法通知观察者,这也意味着更复杂的实现,同时和专门做发布订阅的中间件相比也没有性能优势,在海量推送的应用场景下,消息队列更能胜任,而 Zookeeper 更适合做一些类似服务配置的动态下发的工作。
命名服务
除了实现服务配置数据的发布与订阅功能,Zookeeper 还能帮助分布式系统实现命名服务,在每一个分布式系统中,客户端应用都有根据指定名字获取资源、服务器地址的需求,在这时就要求整个集群中的全部服务有着唯一的名字。
在大型分布式系统中,有两件事情非常常见,一是不同服务之间的可能拥有相同的名字,另一个是同一个服务可能会在集群中部署很多的节点,Zookeeper 就可以通过文件系统和顺序节点解决这两个问题。
zookeeper-namer-service
在上图中,我们创建了两个命名空间,/infrastructure
和 /business
分别代表架构和业务部门,两个部门中都拥有名为 metrics
的服务,而业务部门的 metrics
服务也部署了两个节点,在这里使用了命名空间和顺序节点解决唯一标志符的问题。
ZooKeeper zk = new ZooKeeper("localhost", 3000, null);
zk.create("/metrics", new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL);
zk.create("/metrics", new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL);
List children = zk.getChildren("/", null);
System.out.println(children);
// [metrics0000000001, metrics0000000002]
使用上面的代码就能在 Zookeeper 中创建两个带序号的 metrics
节点,分别是 metrics0000000001
和 metrics0000000002
,也就是说 Zookeeper 帮助我们保证了节点的唯一性,让我们能通过唯一的 ID 查找到对应服务的地址等信息。
协调分布式事务
Zookeeper 的另一个作用就是担任分布式事务中的协调者角色,在之前介绍 分布式事务 的文章中我们曾经介绍过分布式事务本质上都是通过 2PC 来实现的,在两阶段提交中就需要一个协调者负责协调分布式事务的执行。
ZooKeeper zk = new ZooKeeper("localhost", 3000, null);
String path = zk.create("/transfer/tx", new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL);
List ops = Arrays.asList(
Op.create(path + "/cohort", new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL),
Op.create(path + "/cohort", new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL),
Op.create(path + "/cohort", new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL)
);
zk.multi(ops);
当前节点作为协调者在每次发起分布式事务时都会创建一个 /transfer/tx
的持久顺序节点,然后为几个事务的参与者创建几个空白的节点,事务的参与者在收到事务时会向这些空白的节点中写入信息并监听这些节点中的内容。
zookeeper-distributed-coordinator
所有的事务参与者会向当前节点中写入提交或者终止,一旦当前的节点改变了事务的状态,其他节点就会得到通知,如果出现一个写入终止的节点,所有的节点就会回滚对分布式事务进行回滚。
使用 Zookeeper 实现强一致性的分布式事务其实还是一件比较困难的事情,一方面是因为强一致性的分布式事务本身就有一定的复杂性,另一方面就是 Zookeeper 为了给客户端提供更多的自由,对外暴露的都是比较基础的 API,对它们进行组装实现复杂的分布式事务还是比较麻烦的,对于如何使用 Zookeeper 实现分布式事务,我们可以在 ZooKeeper Recipes and Solutions 一文中找到更为详细的内容。
分布式锁
在数据库中,锁的概念其实是非常重要的,常见的关系型数据库就会对排他锁和共享锁进行支持,而 Zookeeper 提供的 API 也可以让我们非常简单的实现分布式锁。
ZooKeeper zk = new ZooKeeper("localhost", 3000, null);
final String resource = "/resource";
final String lockNumber = zk
.create("/resource/lock-", null, ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);
List<String> locks = zk.getChildren(resource, false, null);
Collections.sort(locks);
if (locks.get(0).equals(lockNumber.replace("/resource/", ""))) {
System.out.println("Acquire Lock");
zk.delete(lockNumber, 0);
} else {
zk.getChildren(resource, new Watcher() {
public void process(WatchedEvent watchedEvent) {
try {
ZooKeeper zk = new ZooKeeper("localhost", 3000, null);
List locks = zk.getChildren(resource, null, null);
Collections.sort(locks);
if (locks.get(0).equals(lockNumber.replace("/resource/", ""))) {
System.out.println("Acquire Lock");
zk.delete(lockNumber, 0);
}
} catch (Exception e) {}
}
}, null);
}
如果多个服务同时要对某个资源进行修改,就可以使用上述的代码来实现分布式锁,假设集群中存在一个资源 /resource
,几个服务需要通过分布式锁保证资源只能同时被一个节点使用,我们可以用创建临时顺序节点的方式实现分布式锁;当我们创建临时节点后,通过 getChildren
获取当前等待锁的全部节点,如果当前节点是所有节点中序号最小的就得到了当前资源的使用权限,在对资源进行处理后,就可以通过删除 /resource/lock-00000000x
来释放锁,如果当前节点不是最小值,就会注册一个 Watcher
等待 /resource
子节点的变化直到当前节点的序列号成为最小值。
上述代码在集群中争夺同一资源的服务器特别多的情况下会出现羊群效应,每次子节点改变时都会通知当前节点,造成资源的浪费,我们其实可以将 getChildren
换成 getData
,让当前节点只监听前一个节点的删除事件:
Integer number = Integer.parseInt(lockNumber.replace("/resource/lock-", "")) + 1;
String prevIoUsLock = "/resource/lock-" + String.format("%010d", number);
zk.getData(prevIoUsLock, new Watcher() {
public void process(WatchedEvent watchedEvent) {
try {
if (watchedEvent.getType() == Event.EventType.NodeDeleted) {
System.out.println("Acquire Lock");
ZooKeeper zk = new ZooKeeper("localhost", 3000, null);
zk.delete(lockNumber, 0);
}
} catch (Exception e) {}
}
}, null);
在新的分布式锁实现中,我们减少了每一个服务需要关注的事情,只让它们监听需要关心的数据变更,减少 Zookeeper 发送不必要的通知影响效率。
zookeeper-distributed-lock分布式锁作为分布式系统中比较重要的一个工具,确实有着比较多的应用,同时也有非常多的实现方式,除了 Zookeeper 之外,其他服务例如 Redis 和 etcd 也能够实现分布式锁,为分布式系统的构建提供支持,不过在这篇文章中就不展开介绍了。
总结
我们在这篇文章中简单介绍了 Google 的分布式锁服务 Chubby 以及同样能够提供分布式锁服务功能的 Zookeeper。
作为分布式协调服务,Zookeeper 的应用场景非常广泛,不仅能够用于服务配置的下发、命名服务、协调分布式事务以及分布式锁,还能够用来实现微服务治理中的服务注册以及发现等功能,这些其实都源于 Zookeeper 能够提供高可用的分布式协调服务,能够为客户端提供分布式一致性的支持,在后面的文章中作者也会介绍其他用于分布式协调的服务。