• 【case study】两个redis cluster集群拓扑混掉故障处理


    【背景】

            XXX服务,前后使用了两个redis cluster集群:集群A(2018.1.23前使用,在1.23之后没有流量,但是服务没停),集群B(2018.1.23后使用)。

    【原因】

            根本原因:两个集群使用相同的实例,导致两个集群的拓扑信息互相伤害拓扑乱掉

            诱因:老集群下线流程有误,服务未停,却把记录服务实例信息的db数据删除了

            恢复缓慢原因:缺少处理cluster的工具&经验,临时写脚本处理   

    【过程】

            1、给集群B增加新的redis实例(其中选出了和集群A相同的ip和port)

            2、启动集群B的新实例失败,发现和集群B的某个实例相同的ip和port

            3、停掉集群A的具有相同ip和port的实例,集群A的相应实例起来(目前集群B还未将该实例加入自己集群,该实例目前与集群A的其他实例通信)

            4、对集群B操作同步拓扑信息(将上诉实例加入了集群B,上诉实例与集群B中的其他实例相互交换拓扑信息)

            5、集群B中的主都把自己作为了集群A中实例的从,开始主从同步,集群崩溃

    【处理过程】

            1、停掉集群A的所有实例

            2、强制提升集群B中的相应实例为主(cluster failover takeover -> 将某个从强制提升为主且不与其他实例通信)

            3、修复拓扑状态,检查slot分配,给没有分配master的slot分配master(cluster setslot <slot> node <node-id> -> 发给每个主分配slot信息)

            4、给缺少slave的master挂上slave(cluster replicate ip port)

    【改进方案】

            1、完善集群下线流程:1)避免删除集群基本信息;2)下线集群时停掉服务(停服务发现、检查流量、停服务、注销systemd)

            2、针对cluster的拓扑修复,提供工具:1)集群拓扑比较工具,找出拓扑不一致的实例;2)批量将实例踢出集群;3)批量提升实例为主??

    【思考】

            对于redis cluster这种无中心的架构来说,如果拓扑信息不一致了,如何修复信息确实是挺麻烦的。想到好的方式后,后续补充。

  • 相关阅读:
    MFC之界面提示(CToolTipCtrl类)
    Windows的三种坐标系:屏幕坐标系,非客户区坐标系,客户区坐标系
    【数据库】insert语句
    【js】v-for 的一些用法 :class {{index}}
    jQuery查找选中的checkbox个数
    limit offset
    http状态码
    Whitelabel Error Page
    【Mybatis】Mybatis generator的使用
    【CSS】Bootstrap 图标
  • 原文地址:https://www.cnblogs.com/taoxinrui/p/8406452.html
Copyright © 2020-2023  润新知