• RabbitMQ 集群


    目录

    (见右侧目录栏导航)
    - 1. RabbitMQ集群高可用
        - 1.1 单一模式
        - 1.2 普通模式
        - 1.3 镜像模式
    - 2. 集群的基本概念
    - 3. RabbitMQ普通模式集群配置
        - 3.1 安装 rabbitmq
    - 4. RabbitMQ 镜像集群配置
    - 5. 安装配置 Haproxy

     

    1. RabbitMQ集群高可用


    RabbitMQ是用erlang开发的,集群非常方便,因为erlang天生就是一门分布式语言,但其本身并不支持负载均衡。
    Rabbit模式大概分为以下三种:
            (1) 单一模式
            (2) 普通模式
            (3) 镜像模式

     

    1.1 单一模式

        最简单的情况,非集群模式。

     

    1.2 普通模式


        默认的集群模式
        
        
        上面图中采用三个节点组成了一个RabbitMQ的集群,Exchange A (交换机)的元数据信息在所有节点上是一致的,而 Queue(存放消息的队列)的完整数据则只会存在于它所创建的那个节点上。其他节点只知道这个queue的metadata信息和一个指向queue的owner node的指针。
        
        (1)RabbitMQ集群元数据的同步
        
    RabbitMQ集群会始终同步四种类型的内部元数据(类似索引):
        a. 队列元数据:队列名称和它的属性;
        b. 交换机元数据:交换机名称、类型和属性;
        c. 绑定元数据:一张简单的表格展示了如何将消息路由到队列;
        d. vhost元数据:为vhost内的队列、交换机和绑定提供命名空间和安全属性;
            
        因此,当用户访问其中任何一个RabbitMQ节点时,通过Rabbitctl查询到的queue/user/exchange/vhost等信息都是相同的。
        
        对于Queue来说,消息实体只存在于其中一个节点,node1、node2、node3 三个节点仅有相同的元数据,即队列结构。
        当消息进入node1节点的Queue中后,consumer从node2节点拉取时,RabbitMQ会临时在node1、node2之间进行消息传输,把node1中的消息实体取出并经过node2发送给consumer。
        
        

    所以consumer应尽量连接每个节点,从中取消息。即对于同一个逻辑队列,要在多个节点建立物理Queue。否则无论consumer连A或B,出口总在A,会产生瓶颈。
    该模式存在一个问题就是当node1节点故障后,node2、node3节点无法取到node1节点中还未消费的消息实体。
    如果做了消息持久化,那么得等A节点恢复,然后才可被消费;如果没有持久化的话,那么数据就丢失了。    

    1.3 镜像模式

    把需要的队列做成镜像队列,存在于多个节点,属于RabbitMQ的HA方案。
    该模式解决了上述问题,其实和普通模式不同之处在于,消息实体会主动在镜像节点间同步,而不是在consumer取数据时临时拉取。
    该模式带来的副作用也很明显,除了降低系统性能外,如果镜像队列数量过多,加之大量的消息进入,集群内部的网络带宽将会被这种同步通讯大大消耗掉。
    所以在对可靠性要求较高的场合中适用   

    2. 集群的基本概念

    RabbitMQ的集群节点包括内存节点、磁盘节点。顾名思义内存节点就是将所有数据放在内存,磁盘节点将数据放在磁盘。不过,如前文所述,如果在投递消息时,打开了消息的持久化,那么即使是内存节点,数据还是安全的放在磁盘。

    一个rabbitmq集 群中可以共享 user,vhost,queue,exchange等,所有的数据和状态都是必须在所有节点上复制的,rabbitmq节点可以动态的加入到集群中,一个节点它可以加入到集群中,也可以从集群环集群会进行一个基本的负载均衡。
    集群中有两种节点:
            (1) 内存节点:只保存状态到内存(一个例外的情况是:持久的queue的持久内容将被保存到disk)
            (2) 磁盘节点:保存状态到内存和磁盘。
    内存节点虽然不写入磁盘,但是它执行比磁盘节点要好。集群中,只需要一个磁盘节点来保存状态 就足够了
    如果集群中只有内存节点,那么不能停止它们,否则所有的状态,消息等都会丢失。

    集群实现思路:
    那么具体如何实现RabbitMQ高可用,我们先搭建一个普通集群模式,在这个模式基础上再配置镜像模式实现高可用,Rabbit集群前增加一个反向代理,生产者、消费者通过反向代理访问RabbitMQ集群,如图:
        

    3. RabbitMQ普通模式集群配置

      

    3.1 安装 rabbitmq

        (1)修改主机名、安装 rabbitmq
        
        192.168.118.15 、192.168.118.16、192.168.118.17 对应执行以下操作(主机各自的主机名)

    [root@192.168.118.15 ~]# hostnamectl set-hostname node1
    [root@192.168.118.15 ~]# hostname node1
    [root@192.168.118.15 ~]# cd /opt/
    [root@192.168.118.15 /opt]# ls??
    # erlang、rabbitmq-server 下载地址:http://ww.rabbitmq.com/releases/
    erlang-19.0.4-1.el6.x86_64.rpm??rabbitmq-server-3.6.13-1.el7.noarch.rpm
    [root@192.168.118.15 /opt]# yum install *.rpm -y

     


    只需在node1(192.168.118.15)上启动服务

    [root@192.168.118.15 /opt]#systemctl start rabbitmq-server  # 启动服务
    [root@192.168.118.15 ~]#rabbitmq-plugins enable rabbitmq_management # 开启后端web管理
    [root@192.168.118.15 ~]#netstat -ntplu | egrep beam
    tcp        0      0 0.0.0.0:25672           0.0.0.0:*               LISTEN      4557/beam           
    tcp        0      0 0.0.0.0:15672           0.0.0.0:*               LISTEN      4557/beam           
    tcp6       0      0 :::5672                 :::*                    LISTEN      4557/beam

     


        
        (2)拷贝 .erlang.cookie
        
        Rabbitmq的集群是依附于erlang的集群工作的,所以必须先构建起erlang的集群模式。erlang.cookie是erlang实现分布式的必要文件,erlang分布式的每个节点上要保持相同的.erlang.cookie文件,同时保证文件的权限是400

    [root@192.168.118.15 ~]#cat /var/lib/rabbitmq/.erlang.cookie 
    GFCOJDLAKUIEJCLKCNVR

     


        
        将 192.168.118.15 的 .erlang.cookie 文件拷贝到 192.168.118.16、192.168.118.17 对应的目录下并设置权限

    [root@192.168.118.15 ~]#scp /var/lib/rabbitmq/.erlang.cookie node2:/var/lib/rabbitmq/
    [root@192.168.118.15 ~]#scp /var/lib/rabbitmq/.erlang.cookie node3:/var/lib/rabbitmq/
    分别在 192.168.118.16192.168.118.17 赋予权限
    
    192.168.118.16
    [root@192.168.118.16 ~]#ll /var/lib/rabbitmq/.erlang.cookie 
    -r-------- 1 root root 20 Jan  7 20:43 /var/lib/rabbitmq/.erlang.cookie
    [root@192.168.118.16 ~]#chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie
    192.168.118.17
    [root@192.168.118.17 ~]#ll /var/lib/rabbitmq/.erlang.cookie
    -r-------- 1 root root 20 Jan  7 20:45 /var/lib/rabbitmq/.erlang.cookie
    [root@192.168.118.17 ~]#chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie
    
    开启 node2(192.168.118.16) node3(192.168.118.17) 服务
    
    [root@192.168.118.16 ~]#systemctl start rabbitmq-server
    [root@192.168.118.17 ~]#systemctl start rabbitmq-server

     


        
        (3)将node2(192.168.118.16)、node3(192.168.118.17) 作为内存节点加入node1(192.168.118.15)节点集群中

    node2(192.168.118.16)
    [root@192.168.118.16 ~]#rabbitmqctl stop_app 
    Stopping rabbit application on node rabbit@node2
    [root@192.168.118.16 ~]#rabbitmqctl join_cluster --ram rabbit@node1
    Clustering node rabbit@node2 with rabbit@node1
    [root@192.168.118.16 ~]#rabbitmqctl start_app
    Starting node rabbit@node2
    
    node3(192.168.118.17)
    [root@192.168.118.17 ~]#rabbitmqctl stop_app    # 停止rabbit应用
    Stopping rabbit application on node rabbit@node3
    [root@192.168.118.17 ~]#rabbitmqctl join_cluster --ram rabbit@node1     # 加入到磁盘节点
    Clustering node rabbit@node3 with rabbit@node1
    [root@192.168.118.17 ~]#rabbitmqctl start_app   # 启动rabbit应用
    Starting node rabbit@node3

     


            A. 默认rabbitmq启动后是磁盘节点,在这个cluster命令下,node2和node3是内存节点,node1是磁盘节点。
            B. 如果要使node2、node3都是磁盘节点,去掉--ram参数即可。
            C. 如果想要更改节点类型,可以使用命令rabbitmqctl change_cluster_node_type disc(ram),前提是必须停掉rabbit应用。


        (4)查看集群状态

    [root@192.168.118.15 ~]#rabbitmqctl cluster_status 
    Cluster status of node rabbit@node1
    [{nodes,[{disc,[rabbit@node1]},{ram,[rabbit@node3,rabbit@node2]}]},
    {running_nodes,[rabbit@node3,rabbit@node2,rabbit@node1]},  # 正在运行中的集群节点
    {cluster_name,<<"rabbit@node1">>},
    {partitions,[]},
    {alarms,[{rabbit@node3,[]},{rabbit@node2,[]},{rabbit@node1,[]}]}]

     


        (5)为rabbit添加用户并授权

    [root@192.168.118.15 ~]#rabbitmqctl add_user admin admin    # 新建用户
    Creating user "admin"
    [root@192.168.118.15 ~]#rabbitmqctl set_user_tags admin administrator   # 赋予管理员角色
    Setting tags for user "admin" to [administrator]
    [root@192.168.118.15 ~]#rabbitmqctl set_permissions admin '.*' '.*' '.*'    # 授予管理、写、读权限
    Setting permissions for user "admin" in vhost "/"

     


        
        (6)登录rabbitmq web管理控制台,创建新的队列
        
        打开浏览器输入 http://192.168.118.15:15672/ 刚才的创建的用户:admin 密码: admin,登录后出现如图:
        
            
        根据页面提示创建一条队列

     

    在RabbitMQ普通集群中,必须至少有一个磁盘节点,否则队列元数据无法写入到集群中,当磁盘节点宕掉时,集群将无法写入新的队列元数据信息。
        
    到此,rabbitmq 普通模式搭建完毕。
        

    4. RabbitMQ 镜像集群配置


        上面已经完成RabbitMQ默认集群模式,但并不保证队列的高可用性,尽管交换机、绑定这些可以复制到集群里的任何一个节点,但是队列内容不会复制。虽然该模式解决一项目组节点压力,但队列节点宕机直接导致该队列无法应用,只能等待重启,所以要想在队列节点宕机或故障也能正常应用,就要复制队列内容到集群里的每个节点,必须要创建镜像队列。
        镜像队列是基于普通的集群模式的,然后再添加一些策略,所以你还是得先配置普通集群,然后才能设置镜像队列,我们就以上面的集群接着做。
        
        设置的镜像队列可以通过开启的网页的管理端,也可以通过命令,这里说的是其中的网页设置方式。
        
        (1) 创建rabbitmq策略
        在node1(192.168.118.15)节点的控制台上创建策略
                A. 点击admin菜单–>右侧的Policies选项–>左侧最下下边的Add/update a policy。
                B. 按照图中的内容根据自己的需求填写。

     

            Name:策略名称
            Pattern:匹配的规则,这里表示所有的队列,如果是匹配以a开头的队列,那就是^a.
            Definition:使用ha-mode模式中的all,也就是同步所有匹配的队列。问号链接帮助文档。

     


            点击Add policy添加策略

     

        此时分别登陆node2、node3两个节点的控制台,可以看到上面添加的这个策略,如图所示:
        
        node2


        node3


        (2)添加队列
            在node1节点的控制台上添加队列
                    A. 点击Queues菜单–>左侧下边的Add a new queue
                    B. 输入Name和Arguments参数的值,别的值默认即可

     

    Name:队列名称
    Durability:队列是否持久化
    Node:消息队列的节点
    Auto delete:自动删除
    Arguments:使用的策略类型

     


            将鼠标指向+2可以显示出另外两台消息节点。
        

     

        (3)创建消息
                A. 点击superman队列按钮
                B. 拖动滚动条,点击publish message
                C. 填写相关内容

     

            2-Persistent:表示持久化

    Headers:随便填写即可
    Properties:点击问号,选择一个消息ID号
    Payload:消息内容

     


            点击queue按钮,发现superman队列的Ready和Total中多了一条消息记录。


        (4)做破坏性测试
            A. 将node1节点的服务关闭,再通过node2和node3查看消息记录是否还存在。
                停止 node1 rabbitmq服务

    [root@192.168.118.15 ~]#systemctl stop rabbitmq-server

     

            node2

            node3

            从中可以看到ab队列已经从之前的+2显示成+1了,而且消息记录是存在的。
            B. 再将node2(192.168.118.16)节点的服务关闭,通过node3查看消息记录是否还存在。

    [root@192.168.118.16 ~]#systemctl stop rabbitmq-server

     

     

            从中可以看到superman队列和消息记录还是存在的,只是变成了一个节点了。
        
            C. 将node1和node2的服务再启动起来

    [root@192.168.118.15 ~]#rabbitmqctl sync_queue superman
    [root@192.168.118.16 ~]#rabbitmqctl sync_queue superman


            从提示中显示镜像无法同步。如果这时候停掉node3节点的服务,那么队列里面的消息将会丢失。
            启动后,不同步的解决方法是在node1、node2节点上执行同步命令。

    [root@192.168.118.15 ~]#rabbitmqctl sync_queue superman
    [root@192.168.118.16 ~]#rabbitmqctl sync_queue superman

                同步完成后,就显示同步镜像的节点。
                这样,我们就测试了rabbitmq集群的破坏性测试,说明集群配置成功。

    5. 安装配置 Haproxy

        (1)修改主机名

    [root@192.168.118.14 ~]#hostnamectl set-hostname haproxy ; hostname haproxy

     


        (2)安装haproxy  这里就直接使用epel源安装haproxy

    [root@192.168.118.14 ~]#yum install haproxy -y

     


        (3)修改配置文件

        [root@192.168.118.14 ~]#egrep -v '#|^$' /etc/haproxy/haproxy.cfg 
        global
            log         127.0.0.1 local2
            chroot      /var/lib/haproxy
            pidfile     /var/run/haproxy.pid
            maxconn     4000
            user        haproxy
            group       haproxy
            daemon
            stats socket /var/lib/haproxy/stats
        defaults
            mode                    http
            log                     global
            option                  httplog
            option                  dontlognull
            option http-server-close
            option forwardfor       except 127.0.0.0/8
            option                  redispatch
            retries                 3
            timeout http-request    10s
            timeout queue           1m
            timeout connect         10s
            timeout client          1m
            timeout server          1m
            timeout http-keep-alive 10s
            timeout check           10s
            maxconn                 3000
            
            
        listen http_front   # haproxy 管理后台
            bind 0.0.0.0:1080   # 监听端口
            mode http           # 开启模式为http
            stats enable        # 开启后台统计
            stats hide-version  # 隐藏统计页面上HAProxy的版本信息
            stats refresh 30s   # 统计页面自动刷新时间
            stats uri /stats    # 统计页面uri
            stats realm Haproxy Manager # 统计页面密码框上提示文本 
            stats auth admin:admin  # 统计页面用户名和密码设置
            stats admin if TRUE # 此项是实现haproxy监控页的管理功能的
            
            
        listen rabbitmq_cluster # RabbitMQ 集群负载
            bind 0.0.0.0:5672   # 监听端口
            option tcplog
            mode tcp
            timeout client 3h
            timeout server 3h
            option clitcpka
            balance roundrobin  # 负载均衡算法
            server node2 192.168.118.16:5672 check inter 5s rise 2 fall 3
            server node3 192.168.118.17:5672 check inter 5s rise 2 fall 3

     

        server <name>:定义haproxy内RabbiMQ服务的标识
        ip:port: 标识了后端RabbitMQ的服务地址
        check inter 5s: 表示每个5秒检测RabbitMQ服务是否可用
        rise 2: 表示RabbitMQ服务在发生故障之后,需要2次健康检查才能被再次确认可用
        fall 3: 表示需要经历 3 次失败的健康检查之后,HaProxy才会停止使用此RabbitMQ服务

     


        具体HaProxy 相关说明:https://www.cnblogs.com/hukey/p/5586765.html

        (4)启动haproxy

    [root@192.168.118.14 ~]#systemctl start haproxy
    [root@192.168.118.14 ~]#netstat -ntplu | egrep haproxy 
    tcp        0      0 0.0.0.0:5672            0.0.0.0:*               LISTEN      19006/haproxy       
    tcp        0      0 0.0.0.0:1080            0.0.0.0:*               LISTEN      19006/haproxy       
    udp        0      0 0.0.0.0:43437           0.0.0.0:*                           19005/haproxy

     
        通过浏览器登录haproxy统计后台 http://192.168.118.14:1080/stats
        


        到此,RabbitMQ + HaProxy 高可用集群搭建完毕,后面可自行进行测试。


        本文参考链接:
            
            http://blog.51cto.com/11134648/2155934
            https://www.jianshu.com/p/6376936845ff

  • 相关阅读:
    Orchard源码分析(1):Orchard架构
    抓取网站数据不再是难事了,Fizzler(So Easy)全能搞定
    jQuery版本升级踩坑大全
    ASP.NET MVC使用Bootstrap系列(5)——创建ASP.NET MVC Bootstrap Helpers
    ASP.NET MVC使用Bootstrap系列(4)——使用JavaScript插件
    ASP.NET MVC使用Bootstrap系统(2)——使用Bootstrap CSS和HTML元素
    ASP.NET MVC使用Bootstrap系列(3)——使用Bootstrap 组件
    ASP.NET MVC使用Bootstrap系列(1)——开始使用Bootstrap
    Entity Framework数据库初始化四种策略
    WCF、WebAPI、WCFREST、WebService之间的区别
  • 原文地址:https://www.cnblogs.com/hukey/p/10239632.html
Copyright © 2020-2023  润新知