• Watcher监听和选举机制


    ZooKeeper中,接口类Watcher用于表示一个标准的事件处理器,其定义了事件通知相关的逻辑,包含KeeperState和EventType两个枚举类,分别代表了通知状态和事件类型,同时定义了事件的回调方法:process(WatchedEvent event)。

    一,什么Watcher接口

    同一个事件类型在不同的通知状态中代表的含义有所不同,表7-3列举了常见的通知状态和事件类型。

    7-3 Watcher通知状态与事件类型一览

    KeeperState

    EventType

    触发条件

    说明

    None
    (-1)

    客户端与服务端成功建立连接

    SyncConnected
    (0)

    NodeCreated
    (1)

    Watcher监听的对应数据节点被创建

    NodeDeleted
    (2)

    Watcher监听的对应数据节点被删除

    此时客户端和服务器处于连接状态

    NodeDataChanged
    (3)

    Watcher监听的对应数据节点的数据内容发生变更

    NodeChildChanged
    (4)

    Wather监听的对应数据节点的子节点列表发生变更

    Disconnected
    (0)

    None
    (-1)

    客户端与ZooKeeper服务器断开连接

    此时客户端和服务器处于断开连接状态

    Expired
    (-112)

    Node
    (-1)

    会话超时

    此时客户端会话失效,通常同时也会受到SessionExpiredException异常

    AuthFailed
    (4)

    None
    (-1)

    通常有两种情况,1:使用错误的schema进行权限检查 2:SASL权限检查失败

    通常同时也会收到AuthFailedException异常

    7-3中列举了ZooKeeper中最常见的几个通知状态和事件类型。

    回调方法process()

    process方法是Watcher接口中的一个回调方法,当ZooKeeper向客户端发送一个Watcher事件通知时,客户端就会对相应的process方法进行回调,从而实现对事件的处理。process方法的定义如下:

    abstract public void process(WatchedEvent event);

    这个回调方法的定义非常简单,我们重点看下方法的参数定义:WatchedEvent。

    WatchedEvent包含了每一个事件的三个基本属性:通知状态(keeperState),事件类型(EventType)和节点路径(path),其数据结构如图7-5所示。ZooKeeper使用WatchedEvent对象来封装服务端事件并传递给Watcher,从而方便回调方法process对服务端事件进行处理。

    提到WatchedEvent,不得不讲下WatcherEvent实体。笼统地讲,两者表示的是同一个事物,都是对一个服务端事件的封装。不同的是,WatchedEvent是一个逻辑事件,用于服务端和客户端程序执行过程中所需的逻辑对象,而WatcherEvent因为实现了序列化接口,因此可以用于网络传输。

    服务端在生成WatchedEvent事件之后,会调用getWrapper方法将自己包装成一个可序列化的WatcherEvent事件,以便通过网络传输到客户端。客户端在接收到服务端的这个事件对象后,首先会将WatcherEvent还原成一个WatchedEvent事件,并传递给process方法处理,回调方法process根据入参就能够解析出完整的服务端事件了。

    需要注意的一点是,无论是WatchedEvent还是WatcherEvent,其对ZooKeeper服务端事件的封装都是机及其简单的。举个例子来说,当/zk-book这个节点的数据发生变更时,服务端会发送给客户端一个“ZNode数据内容变更”事件,客户端只能够接收到如下信息

    二,案例

    public class ZkWatcher implements Watcher {
        //连接地址
        private static final String ZK_ADDRESS="0.0.0.0:2181";
        //超时时间
        private static final Integer ZK_SESSION_TIMEOUT=2000;
    
    
        private ZooKeeper zooKeeper;
    
        public ZkWatcher() {
            openConnection(ZK_ADDRESS,ZK_SESSION_TIMEOUT);
        }
    
        /**
         * 回调方法,监听连接,监听增删改节点
         * @param event
         */
        @Override
        public void process(WatchedEvent event) {
            //获取当前的状态
            Event.KeeperState keeperState = event.getState();
            //获取通知类型
            Event.EventType eventType = event.getType();
            //获取操作节点的路径
            String path = event.getPath();
    
            System.out.println("当前状态为:"+keeperState+"	通知类型为:"+eventType+"	操作的节点路径:"+path);
            //已经成功连接
            if(Event.KeeperState.SyncConnected==keeperState){
                //连接状态
                if(Event.EventType.None==eventType){
                    System.out.println("========================连接事件回调========================");
                }
                //创建节点
                if (Event.EventType.NodeCreated==eventType){
                    System.out.println("========================创建节点事件回调========================");
                }
                //修改节点
                if(Event.EventType.NodeDataChanged==eventType){
                    System.out.println("========================修改节点事件回调========================");
                }
                //删除节点
                if(Event.EventType.NodeDeleted==eventType){
                    System.out.println("========================删除节点事件回调========================");
                }
            }
        }
        /**
         * 连接zk方法
         */
        public void openConnection(String zk_address,Integer zk_sessionout){
            try {
                zooKeeper = new ZooKeeper(zk_address, zk_sessionout, this);
                System.out.println("!!!!!连接zk成功!!!!!!!");
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    
    
        /**
         * 关闭zk连接
         *
         */
         public void closeConnection(){
             try {
                 if(zooKeeper!=null){
                     zooKeeper.close();
                 }
    
             } catch (InterruptedException e) {
                 e.printStackTrace();
             }
         }
    
        /**
         * 添加节点
         * @param
         */
        public void createNode(String path,String data){
            try {
                //启动监听
                zooKeeper.exists(path,true);
                String result = zooKeeper.create(path, data.getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
                System.out.println("创建节点成功:"+result);
            } catch (KeeperException e) {
                e.printStackTrace();
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }
    
        /**
         * 修改节点
         */
       /* public void setNode(String path,String data){
    
            try {
                //启动监听
                zooKeeper.exists(path,true);
                zooKeeper.setData(path, data.getBytes(), -1);
                System.out.println("修改节点成功");
            } catch (KeeperException e) {
                e.printStackTrace();
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }*/
    
        /**
         * 删除节点
         */
        /*public void deleteNode(String path){
    
            try {
                //启动监听
                zooKeeper.exists(path,true);
                zooKeeper.delete(path, -1);
                System.out.println("删除节点成功");
            } catch (KeeperException e) {
                e.printStackTrace();
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }*/
    
        public static void main(String[] args) {
            ZkWatcher zkWatcher=new ZkWatcher();
            zkWatcher.createNode("/zkNode","zkValue");
    
            //zkWatcher.setNode("/zkNode","zkValueSet");
    
            //zkWatcher.deleteNode("/zkNode");
    
            zkWatcher.closeConnection();
        }
    

      

    三,选举机制

    Leader选举

     Leader选举概述

      Leader选举是保证分布式数据一致性的关键所在。当Zookeeper集群中的一台服务器出现以下两种情况之一时,需要进入Leader选举。

      (1) 服务器初始化启动。

      (2) 服务器运行期间无法和Leader保持连接。

      下面就两种情况进行分析讲解。

      1. 服务器启动时期的Leader选举

      若进行Leader选举,则至少需要两台机器,这里选取3台机器组成的服务器集群为例。在集群初始化阶段,当有一台服务器Server1启动时,其单独无法进行和完成Leader选举,当第二台服务器Server2启动时,此时两台机器可以相互通信,每台机器都试图找到Leader,于是进入Leader选举过程。选举过程如下

      (1) 每个Server发出一个投票。由于是初始情况,Server1和Server2都会将自己作为Leader服务器来进行投票,每次投票会包含所推举的服务器的myid和ZXID,使用(myid, ZXID)来表示,此时Server1的投票为(1, 0),Server2的投票为(2, 0),然后各自将这个投票发给集群中其他机器。

      (2) 接受来自各个服务器的投票。集群的每个服务器收到投票后,首先判断该投票的有效性,如检查是否是本轮投票、是否来自LOOKING状态的服务器。

      (3) 处理投票。针对每一个投票,服务器都需要将别人的投票和自己的投票进行PK,PK规则如下

        · 优先检查ZXID。ZXID比较大的服务器优先作为Leader。

        · 如果ZXID相同,那么就比较myid。myid较大的服务器作为Leader服务器。

      对于Server1而言,它的投票是(1, 0),接收Server2的投票为(2, 0),首先会比较两者的ZXID,均为0,再比较myid,此时Server2的myid最大,于是更新自己的投票为(2, 0),然后重新投票,对于Server2而言,其无须更新自己的投票,只是再次向集群中所有机器发出上一次投票信息即可。

      (4) 统计投票。每次投票后,服务器都会统计投票信息,判断是否已经有过半机器接受到相同的投票信息,对于Server1、Server2而言,都统计出集群中已经有两台机器接受了(2, 0)的投票信息,此时便认为已经选出了Leader。

      (5) 改变服务器状态。一旦确定了Leader,每个服务器就会更新自己的状态,如果是Follower,那么就变更为FOLLOWING,如果是Leader,就变更为LEADING。

     

     2. 服务器运行时期的Leader选举

      在Zookeeper运行期间,Leader与非Leader服务器各司其职,即便当有非Leader服务器宕机或新加入,此时也不会影响Leader,但是一旦Leader服务器挂了,那么整个集群将暂停对外服务,进入新一轮Leader选举,其过程和启动时期的Leader选举过程基本一致。假设正在运行的有Server1、Server2、Server3三台服务器,当前Leader是Server2,若某一时刻Leader挂了,此时便开始Leader选举。选举过程如下

      (1) 变更状态。Leader挂后,余下的非Observer服务器都会讲自己的服务器状态变更为LOOKING,然后开始进入Leader选举过程。

      (2) 每个Server会发出一个投票。在运行期间,每个服务器上的ZXID可能不同,此时假定Server1的ZXID为123,Server3的ZXID为122;在第一轮投票中,Server1和Server3都会投自己,产生投票(1, 123),(3, 122),然后各自将投票发送给集群中所有机器。

      (3) 接收来自各个服务器的投票。与启动时过程相同。

      (4) 处理投票。与启动时过程相同,此时,Server1将会成为Leader。

      (5) 统计投票。与启动时过程相同。

      (6) 改变服务器的状态。与启动时过程相同。

     

     3. Leader选举算法分析

      在3.4.0后的Zookeeper的版本只保留了TCP版本的FastLeaderElection选举算法。当一台机器进入Leader选举时,当前集群可能会处于以下两种状态

        · 集群中已经存在Leader。

        · 集群中不存在Leader。

      对于集群中已经存在Leader而言,此种情况一般都是某台机器启动得较晚,在其启动之前,集群已经在正常工作,对这种情况,该机器试图去选举Leader时,会被告知当前服务器的Leader信息,对于该机器而言,仅仅需要和Leader机器建立起连接,并进行状态同步即可。而在集群中不存在Leader情况下则会相对复杂,其步骤如下

      (1) 第一次投票。无论哪种导致进行Leader选举,集群的所有机器都处于试图选举出一个Leader的状态,即LOOKING状态,LOOKING机器会向所有其他机器发送消息,该消息称为投票。投票中包含了SID(服务器的唯一标识)和ZXID(事务ID),(SID, ZXID)形式来标识一次投票信息。假定Zookeeper由5台机器组成,SID分别为1、2、3、4、5,ZXID分别为9、9、9、8、8,并且此时SID为2的机器是Leader机器,某一时刻,1、2所在机器出现故障,因此集群开始进行Leader选举。在第一次投票时,每台机器都会将自己作为投票对象,于是SID为3、4、5的机器投票情况分别为(3, 9),(4, 8), (5, 8)。

      (2) 变更投票。每台机器发出投票后,也会收到其他机器的投票,每台机器会根据一定规则来处理收到的其他机器的投票,并以此来决定是否需要变更自己的投票,这个规则也是整个Leader选举算法的核心所在,其中术语描述如下

        · vote_sid:接收到的投票中所推举Leader服务器的SID。

        · vote_zxid:接收到的投票中所推举Leader服务器的ZXID。

        · self_sid:当前服务器自己的SID。

        · self_zxid:当前服务器自己的ZXID。

      每次对收到的投票的处理,都是对(vote_sid, vote_zxid)和(self_sid, self_zxid)对比的过程。

        规则一:如果vote_zxid大于self_zxid,就认可当前收到的投票,并再次将该投票发送出去。

        规则二:如果vote_zxid小于self_zxid,那么坚持自己的投票,不做任何变更。

        规则三:如果vote_zxid等于self_zxid,那么就对比两者的SID,如果vote_sid大于self_sid,那么就认可当前收到的投票,并再次将该投票发送出去。

        规则四:如果vote_zxid等于self_zxid,并且vote_sid小于self_sid,那么坚持自己的投票,不做任何变更。

      结合上面规则,给出下面的集群变更过程。

      (3) 确定Leader。经过第二轮投票后,集群中的每台机器都会再次接收到其他机器的投票,然后开始统计投票,如果一台机器收到了超过半数的相同投票,那么这个投票对应的SID机器即为Leader。此时Server3将成为Leader。

      由上面规则可知,通常那台服务器上的数据越新(ZXID会越大),其成为Leader的可能性越大,也就越能够保证数据的恢复。如果ZXID相同,则SID越大机会越大。

     

    4. Leader选举实现细节

      1. 服务器状态

      服务器具有四种状态,分别是LOOKING、FOLLOWING、LEADING、OBSERVING。

      LOOKING:寻找Leader状态。当服务器处于该状态时,它会认为当前集群中没有Leader,因此需要进入Leader选举状态。

      FOLLOWING:跟随者状态。表明当前服务器角色是Follower。

      LEADING:领导者状态。表明当前服务器角色是Leader。

      OBSERVING:观察者状态。表明当前服务器角色是Observer。

      2. 投票数据结构

      每个投票中包含了两个最基本的信息,所推举服务器的SID和ZXID,投票(Vote)在Zookeeper中包含字段如下

      id:被推举的Leader的SID。

      zxid:被推举的Leader事务ID。

      electionEpoch:逻辑时钟,用来判断多个投票是否在同一轮选举周期中,该值在服务端是一个自增序列,每次进入新一轮的投票后,都会对该值进行加1操作。

      peerEpoch:被推举的Leader的epoch。

      state:当前服务器的状态。

      3. QuorumCnxManager:网络I/O

      每台服务器在启动的过程中,会启动一个QuorumPeerManager,负责各台服务器之间的底层Leader选举过程中的网络通信。

      (1) 消息队列。QuorumCnxManager内部维护了一系列的队列,用来保存接收到的、待发送的消息以及消息的发送器,除接收队列以外,其他队列都按照SID分组形成队列集合,如一个集群中除了自身还有3台机器,那么就会为这3台机器分别创建一个发送队列,互不干扰。

        · recvQueue:消息接收队列,用于存放那些从其他服务器接收到的消息。

        · queueSendMap:消息发送队列,用于保存那些待发送的消息,按照SID进行分组。

        · senderWorkerMap:发送器集合,每个SenderWorker消息发送器,都对应一台远程Zookeeper服务器,负责消息的发送,也按照SID进行分组。

        · lastMessageSent:最近发送过的消息,为每个SID保留最近发送过的一个消息。

      (2) 建立连接。为了能够相互投票,Zookeeper集群中的所有机器都需要两两建立起网络连接。QuorumCnxManager在启动时会创建一个ServerSocket来监听Leader选举的通信端口(默认为3888)。开启监听后,Zookeeper能够不断地接收到来自其他服务器的创建连接请求,在接收到其他服务器的TCP连接请求时,会进行处理。为了避免两台机器之间重复地创建TCP连接,Zookeeper只允许SID大的服务器主动和其他机器建立连接,否则断开连接。在接收到创建连接请求后,服务器通过对比自己和远程服务器的SID值来判断是否接收连接请求,如果当前服务器发现自己的SID更大,那么会断开当前连接,然后自己主动和远程服务器建立连接。一旦连接建立,就会根据远程服务器的SID来创建相应的消息发送器SendWorker和消息接收器RecvWorker,并启动。

      (3) 消息接收与发送。消息接收:由消息接收器RecvWorker负责,由于Zookeeper为每个远程服务器都分配一个单独的RecvWorker,因此,每个RecvWorker只需要不断地从这个TCP连接中读取消息,并将其保存到recvQueue队列中。消息发送:由于Zookeeper为每个远程服务器都分配一个单独的SendWorker,因此,每个SendWorker只需要不断地从对应的消息发送队列中获取出一个消息发送即可,同时将这个消息放入lastMessageSent中。在SendWorker中,一旦Zookeeper发现针对当前服务器的消息发送队列为空,那么此时需要从lastMessageSent中取出一个最近发送过的消息来进行再次发送,这是为了解决接收方在消息接收前或者接收到消息后服务器挂了,导致消息尚未被正确处理。同时,Zookeeper能够保证接收方在处理消息时,会对重复消息进行正确的处理。

      

    5. FastLeaderElection:选举算法核心

      · 外部投票:特指其他服务器发来的投票。

      · 内部投票:服务器自身当前的投票。

      · 选举轮次:Zookeeper服务器Leader选举的轮次,即logicalclock。

      · PK:对内部投票和外部投票进行对比来确定是否需要变更内部投票。

      (1) 选票管理

      · sendqueue:选票发送队列,用于保存待发送的选票。

      · recvqueue:选票接收队列,用于保存接收到的外部投票。

      · WorkerReceiver:选票接收器。其会不断地从QuorumCnxManager中获取其他服务器发来的选举消息,并将其转换成一个选票,然后保存到recvqueue中,在选票接收过程中,如果发现该外部选票的选举轮次小于当前服务器的,那么忽略该外部投票,同时立即发送自己的内部投票。

      · WorkerSender:选票发送器,不断地从sendqueue中获取待发送的选票,并将其传递到底层QuorumCnxManager中。

      (2) 算法核心

      上图展示了FastLeaderElection模块是如何与底层网络I/O进行交互的。Leader选举的基本流程如下

      1. 自增选举轮次。Zookeeper规定所有有效的投票都必须在同一轮次中,在开始新一轮投票时,会首先对logicalclock进行自增操作。

      2. 初始化选票。在开始进行新一轮投票之前,每个服务器都会初始化自身的选票,并且在初始化阶段,每台服务器都会将自己推举为Leader。

      3. 发送初始化选票。完成选票的初始化后,服务器就会发起第一次投票。Zookeeper会将刚刚初始化好的选票放入sendqueue中,由发送器WorkerSender负责发送出去。

      4. 接收外部投票。每台服务器会不断地从recvqueue队列中获取外部选票。如果服务器发现无法获取到任何外部投票,那么就会立即确认自己是否和集群中其他服务器保持着有效的连接,如果没有连接,则马上建立连接,如果已经建立了连接,则再次发送自己当前的内部投票。

      5. 判断选举轮次。在发送完初始化选票之后,接着开始处理外部投票。在处理外部投票时,会根据选举轮次来进行不同的处理。

        · 外部投票的选举轮次大于内部投票。若服务器自身的选举轮次落后于该外部投票对应服务器的选举轮次,那么就会立即更新自己的选举轮次(logicalclock),并且清空所有已经收到的投票,然后使用初始化的投票来进行PK以确定是否变更内部投票。最终再将内部投票发送出去。

        · 外部投票的选举轮次小于内部投票。若服务器接收的外选票的选举轮次落后于自身的选举轮次,那么Zookeeper就会直接忽略该外部投票,不做任何处理,并返回步骤4。

        · 外部投票的选举轮次等于内部投票。此时可以开始进行选票PK。

      6. 选票PK。在进行选票PK时,符合任意一个条件就需要变更投票。

        · 若外部投票中推举的Leader服务器的选举轮次大于内部投票,那么需要变更投票。

        · 若选举轮次一致,那么就对比两者的ZXID,若外部投票的ZXID大,那么需要变更投票。

        · 若两者的ZXID一致,那么就对比两者的SID,若外部投票的SID大,那么就需要变更投票。

      7. 变更投票。经过PK后,若确定了外部投票优于内部投票,那么就变更投票,即使用外部投票的选票信息来覆盖内部投票,变更完成后,再次将这个变更后的内部投票发送出去。

      8. 选票归档。无论是否变更了投票,都会将刚刚收到的那份外部投票放入选票集合recvset中进行归档。recvset用于记录当前服务器在本轮次的Leader选举中收到的所有外部投票(按照服务队的SID区别,如{(1, vote1), (2, vote2)...})。

      9. 统计投票。完成选票归档后,就可以开始统计投票,统计投票是为了统计集群中是否已经有过半的服务器认可了当前的内部投票,如果确定已经有过半服务器认可了该投票,则终止投票。否则返回步骤4。

      10. 更新服务器状态。若已经确定可以终止投票,那么就开始更新服务器状态,服务器首选判断当前被过半服务器认可的投票所对应的Leader服务器是否是自己,若是自己,则将自己的服务器状态更新为LEADING,若不是,则根据具体情况来确定自己是FOLLOWING或是OBSERVING。

      以上10个步骤就是FastLeaderElection的核心,其中步骤4-9会经过几轮循环,直到有Leader选举产生。

    三、总结

            gaoshan个人解释,选举轮次,也就是逻辑时钟,即logicalclock。这个值,不会频繁变化,一次选举,自增一次。一次选举过程中,可能包括多次投票,投票不涉及逻辑时钟的自增。

             举例,初始情况下5台机器,sid分别为1、2、3、4、5,逻辑时钟都是0。依次启动后,开始选举,所有的机器逻辑时钟自增为1。经过多次投票,假设第三台机器为leader,其他4台机器为follower,此时5台机器的逻辑时钟都为1。

            一般情况下,逻辑时钟应该都是相同的。但是,由于一些机器崩溃的问题,是可能出现逻辑时钟不一致的情况的。例如,上例中,sid=3的机器为leader。之后某一刻,sid为1、3的机器崩溃,zookeeper仍然可以正常对外提供服务。但需要重新选主,剩下的2、4、5重新投票选主,假设sid=5成为新的leader,逻辑时钟自增,由1变成2。之后某一刻,sid为5的机器奔溃,sid为1的机器复活,仍然有3台机器运行,zookeeper可以对外提供服务,但需要重新选主。重新选主,逻辑时钟自增,这时sid为2、4的机器的逻辑时钟是由2自增为3,而sid为1的机器的逻辑时钟是由1自增为2。这种情况下,就出现了逻辑时钟不一致的情况。这时,需要清楚sid为1的机器内部的投票数据,因为这些投票数据都是过时的数据。

     

  • 相关阅读:
    Android深度探索--第三章读后感
    Android深度探索--第二章读后感
    Android深度探索--第一章读后感
    android深度探索第十章心得体会
    android深度探索第九章心得体会
    android深度探索第八章心得体会
    深度探索android第七章
    Android 深度探索第六章
    深度探索android第五章
    Android深度探索第四章读后感
  • 原文地址:https://www.cnblogs.com/liuying23/p/11937104.html
Copyright © 2020-2023  润新知