• 搭建zookeeper单机和集群


    ZooKeeper 是一个分布式服务框架,它主要是用来解决分布式应用中经常遇到的
    一些数据管理问题,如:命名服务、状态同步、配置中心、集群管理等。

    命名服务:

    命名服务是分布式系统中比较常见的一类场景。命名服务是分布式系统最基本的
    公共服务之一。在分布式系统中,被命名的实体通常可以是集群中的机器、提供
    的服务地址或远程对象等——这些我们都可以统称它们为名字(Name),其中较
    为常见的就是一些分布式服务框架(如 RPC、RMI)中的服务地址列表,通过使
    用命名服务,客户端应用能够根据指定名字来获取资源的实体、服务地址和提供
    者的信息等。
    

    状态同步:

    每个节点除了存储数据内容和 node 节点状态信息之外,还存储了已经注册的
    APP 的状态信息,当有些节点或 APP 不可用,就将当前状态同步给其他服务。
    

    配置中心:

    现在我们大多数应用都是采用的是分布式开发的应用,搭建到不同的服务器上,
    我们的配置文件,同一个应用程序的配置文件一样,还有就是多个程序存在相同
    的配置,当我们配置文件中有个配置属性需要改变,我们需要改变每个程序的配
    置属性,这样会很麻烦的去修改配置,那么可用使用 ZooKeeper 来实现配置中心,
    ZooKeeper 采用的是推拉相结合的方式: 客户端向服务端注册自己需要关注的
    节点,一旦该节点的数据发生变更,那么服务端就会向相应的客户端发送
    Watcher 事件通知,客户端接收到这个消息通知后,需要主动到服务端获取最新
    的数据。
    

    集群管理:

    所谓集群管理,包括集群监控与集群控制两大块,前者侧重对集群运行时状态的收集,后者则是对集群进行操作与控制,在日常开发和运维过程中,我们经常会
    有类似于如下的需求:
    
    希望知道当前集群中究竟有多少机器在工作。
    对集群中每台机器的运行时状态进行数据收集。
    对集群中机器进行上下线操作。
    

    ZooKeeper 具有以下两大特性。

    客户端如果对 ZooKeeper 的一个数据节点注册 Watcher 监听,那么当该数据节点
    的内容或是其子节点列表发生变更时,ZooKeeper 服务器就会向订阅的客户端发
    送变更通知。
    对在 ZooKeeper 上创建的临时节点,一旦客户端与服务器之间的会话失效,那么
    该临时节点也就被自动清除。
    

    Watcher(事件监听器),是 Zookeeper 中的一个很重要的特性。Zookeeper
    允许用户在指定节点上注册一些 Watcher,并且在一些特定事件触发的时候,
    ZooKeeper 服务端会将事件通知到感兴趣的客户端上去,该机制是 Zookeeper
    实现分布式协调服务的重要特性。

    0 生产者启动
    1 生产者注册至 zookeeper
    2 消费者启动并订阅频道
    3 zookeeper 通知消费者事件
    4 消费者调用生产者
    5 监控中心负责统计和监控服务状态
    

    ZooKeeper 单机安装:

    配置 java 环境:

    ## 官方依赖介绍
    https://zookeeper.apache.org/doc/r3.4.14/zookeeperAdmin.html#sc_requiredSoftware
    

    安装jdk

    [root@mq1 ~]# apt install openjdk-8-jdk -y
    

    下载网址

    https://archive.apache.org/dist/zookeeper/
    

    下载

    [root@mq1 ~]# cd /usr/local/src/
    
    [root@mq1 src]# wget https://archive.apache.org/dist/zookeeper/zookeeper-3.6.0/apache-zookeeper-3.6.0.tar.gz
    

    解压

    [root@mq1 src]# tar xf apache-zookeeper-3.6.0.tar.gz
    

    做成软链接

    [root@mq1 ~]# ln -s /usr/local/src/apache-zookeeper-3.6.0 /usr/local/zookeeper
    

    修改文件

    [root@mq1 ~]# cd /usr/local/zookeeper
    
    [root@mq1 zookeeper]# cp conf/zoo_sample.cfg conf/zoo.cfg
    

    创建数据目录

    [root@mq1 zookeeper]# mkdir /data/zookeeper -p
    

    查看配置

    [root@mq1 zookeeper]# grep ^[a-Z] conf/zoo.cfg
    tickTime=2000
    initLimit=10
    syncLimit=5
    dataDir=/data/zookeeper
    clientPort=2181
    

    启动

    [root@mq1 zookeeper]# /usr/local/zookeeper/bin/zkServer.sh start
    

    查看端口2181

    [root@mq1 zookeeper]# ss -tanl
    

    查看进程

    [root@mq1 zookeeper]# ps -ef | grep zookeeper
    

    查看状态

    [root@mq1 zookeeper]# /usr/local/zookeeper/bin/zkServer.sh status
    

    报错

    [root@mq1 zookeeper]# tail -f logs/zookeeper-root-server-mq1.exmplr.local.out
    
    Error: Could not find or load main class org.apache.zookeeper.server.quorum.QuorumPeerMain
    

    解决方法:

    因为zk是java写的,所以启动zk就是执行java文件,看了zk目录都是源文件,并不是编译后的包,显然是下载的tar包有问题,重新下载了带bin的包

    [root@mq1 src]# wget https://archive.apache.org/dist/zookeeper/zookeeper-3.6.0/apache-zookeeper-3.6.0-bin.tar.gz
    

    zookeeper 集群

    ZooKeeper 集群用于解决单点和单机性能及数据高可用等问题。

    Zookeeper 集群部署:

    Zookeeper 的集群部署过程。
    zookeeper 集群特性:整个集群中只要有超过集群数量一半的 zookeeper 工作只
    正常的,那么整个集群对外就是可用的,假如有 2 台服务器做了一个 zookeeper
    集群,只要有任何一台故障或宕机,那么这个 zookeeper 集群就不可用了,因为
    剩下的一台没有超过集群一半的数量,但是假如有三台 zookeeper 组成一个集群,
    那么损坏一台就还剩两台,大于 3 台的一半,所以损坏一台还是可以正常运行的,
    但是再损坏一台就只剩一台集群就不可用了。那么要是 4 台组成一个 zookeeper
    集群,损坏一台集群肯定是正常的,那么损坏两台就还剩两台,那么 2 台不大于
    集群数量的一半,所以 3 台的 zookeeper 集群和 4 台的 zookeeper 集群损坏两台
    的结果都是集群不可用,以此类推 5 台和 6 台以及 7 台和 8 台都是同理,所以这
    也就是为什么集群一般都是奇数的原因。
    

    配置 ZooKeeper 集群:
    各 zookeeper 服务器都配置 java 环境并部署 zookeeper 集群
    服务器环境:

    Zk-node1:172.31.2.41
    Zk-node2:172.31.2.42
    Zk-node3:172.31.2.43
    

    配置如下(其他机器配置都一样)

    [root@mq1 zookeeper]# grep -v "^#" /usr/local/zookeeper/conf/zoo.cfg
    
    tickTime=2000
    initLimit=10
    syncLimit=5
    dataDir=/usr/local/zookeeper/data
    clientPort=2181
    maxClientCnxns=128
    autopurge.snapRetainCount=3
    autopurge.purgeInterval=1
    
    server.1=172.31.2.41:2888:3888
    server.2=172.31.2.42:2888:3888
    server.3=172.31.2.43:2888:3888
    

    创建目录

    [root@mq1 zookeeper]# mkdir -p /usr/local/zookeeper/data
    
    [root@mq2 zookeeper]# mkdir -p /usr/local/zookeeper/data
    
    [root@mq2 zookeeper]# mkdir -p /usr/local/zookeeper/data
    

    所有机器都不一样

    [root@mq1 zookeeper]# echo "1" > /usr/local/zookeeper/data/myid
    
    [root@mq2 zookeeper]# echo "2" > /usr/local/zookeeper/data/myid
    
    [root@mq3 zookeeper]# echo "3" > /usr/local/zookeeper/data/myid
    

    各服务器启动 zookeeper:
    各 zookeeper 服务器尽快启动 zookeeper 服务。

    [root@mq1 zookeeper]# /usr/local/zookeeper/bin/zkServer.sh restart
    
    [root@mq2 zookeeper]# /usr/local/zookeeper/bin/zkServer.sh restart
    
    [root@mq3 zookeeper]# /usr/local/zookeeper/bin/zkServer.sh restart
    

    验证 zookeeper 集群状态:

    [root@mq1 zookeeper]# /usr/local/zookeeper/bin/zkServer.sh status
    
    Mode: follower
    
    [root@mq2 zookeeper]# /usr/local/zookeeper/bin/zkServer.sh status
    
    Mode: leader
    
    [root@mq3 zookeeper]# /usr/local/zookeeper/bin/zkServer.sh status
    
    Mode: follower
    

    节点角色状态:

    LOOKING:寻找 Leader 状态,处于该状态需要进入选举流程
    LEADING:领导者状态,处于该状态的节点说明是角色已经是 Leader
    FOLLOWING:跟随者状态,表示 Leader 已经选举出来,当前节点角色是 follower
    OBSERVER:观察者状态,表明当前节点角色是 observer
    

    选举 ID:

    ZXID(zookeeper transaction id):每个改变 Zookeeper 状态的操作都会形成一个对应的 zxid。
    myid:服务器的唯一标识(SID),通过配置 myid 文件指定,集群中唯一。
    

    leader 选举过程

    当集群中的 zookeeper 节点启动以后,会根据配置文件中指定的 zookeeper 节点
    地址进行 leader 选择操作,过程如下:

    1. 每个 zookeeper 都会发出投票,由于是第一次选举 leader,因此每个节点都
    会把自己当做 leader 角色进行选举,每个 zookeeper 的投票中都会包含自己
    的 myid 和 zxid,此时 zookeeper 1 的投票为 myid 为 1,初始 zxid 有一个初始
    值,后期会随着数据更新而自动变化,zookeeper2 的投票为 myid 为 2,初始zxid 为初始生成的值。
    
    2. 每个节点接受并检查对方的投票信息,比如投票时间、是否状态为 LOOKING状态的投票。
    
    3. 对比投票,优先检查 xvid,如果 xvid 不一样则 xvid 大的为 leader,如果 xvid
    相同则继续对比 myid,myid 大的一方为 leader
    
    成为 Leader 的必要条件: Leader 要具有最高的 zxid;当集群的规模是 n 时,集
    群中大多数的机器(至少 n/2+1)得到响应并 follow 选出的 Leader。
    心跳机制:Leader 与 Follower 利用 PING 来感知对方的是否存活,当 Leader 无法
    响应 PING 时,将重新发起 Leader 选举。
    
  • 相关阅读:
    ruby学习总结03
    ruby学习总结02
    ruby学习总结01
    mongodb学习笔记
    mongodb数据库设计原则
    activiti学习总结
    Scala学习——隐式转换
    Scala学习——函数高级操作
    Scala学习——模式匹配
    Scala学习——集合
  • 原文地址:https://www.cnblogs.com/xuanlv-0413/p/15168189.html
Copyright © 2020-2023  润新知