目录
(见右侧目录栏导航)
- 1. RabbitMQ集群高可用
- 1.1 单一模式
- 1.2 普通模式
- 1.3 镜像模式
- 2. 集群的基本概念
- 3. RabbitMQ普通模式集群配置
- 3.1 安装 rabbitmq
- 4. RabbitMQ 镜像集群配置
- 5. 安装配置 Haproxy
1. RabbitMQ集群高可用
RabbitMQ是用erlang开发的,集群非常方便,因为erlang天生就是一门分布式语言,但其本身并不支持负载均衡。
Rabbit模式大概分为以下三种:
(1) 单一模式
(2) 普通模式
(3) 镜像模式
1.1 单一模式
最简单的情况,非集群模式。
1.2 普通模式
默认的集群模式
上面图中采用三个节点组成了一个RabbitMQ的集群,Exchange A (交换机)的元数据信息在所有节点上是一致的,而 Queue(存放消息的队列)的完整数据则只会存在于它所创建的那个节点上。其他节点只知道这个queue的metadata信息和一个指向queue的owner node的指针。
(1)RabbitMQ集群元数据的同步
RabbitMQ集群会始终同步四种类型的内部元数据(类似索引):
a. 队列元数据:队列名称和它的属性;
b. 交换机元数据:交换机名称、类型和属性;
c. 绑定元数据:一张简单的表格展示了如何将消息路由到队列;
d. vhost元数据:为vhost内的队列、交换机和绑定提供命名空间和安全属性;
因此,当用户访问其中任何一个RabbitMQ节点时,通过Rabbitctl查询到的queue/user/exchange/vhost等信息都是相同的。
对于Queue来说,消息实体只存在于其中一个节点,node1、node2、node3 三个节点仅有相同的元数据,即队列结构。
当消息进入node1节点的Queue中后,consumer从node2节点拉取时,RabbitMQ会临时在node1、node2之间进行消息传输,把node1中的消息实体取出并经过node2发送给consumer。
所以consumer应尽量连接每个节点,从中取消息。即对于同一个逻辑队列,要在多个节点建立物理Queue。否则无论consumer连A或B,出口总在A,会产生瓶颈。
该模式存在一个问题就是当node1节点故障后,node2、node3节点无法取到node1节点中还未消费的消息实体。
如果做了消息持久化,那么得等A节点恢复,然后才可被消费;如果没有持久化的话,那么数据就丢失了。
1.3 镜像模式
把需要的队列做成镜像队列,存在于多个节点,属于RabbitMQ的HA方案。
该模式解决了上述问题,其实和普通模式不同之处在于,消息实体会主动在镜像节点间同步,而不是在consumer取数据时临时拉取。
该模式带来的副作用也很明显,除了降低系统性能外,如果镜像队列数量过多,加之大量的消息进入,集群内部的网络带宽将会被这种同步通讯大大消耗掉。
所以在对可靠性要求较高的场合中适用
2. 集群的基本概念
RabbitMQ的集群节点包括内存节点、磁盘节点。顾名思义内存节点就是将所有数据放在内存,磁盘节点将数据放在磁盘。不过,如前文所述,如果在投递消息时,打开了消息的持久化,那么即使是内存节点,数据还是安全的放在磁盘。
一个rabbitmq集 群中可以共享 user,vhost,queue,exchange等,所有的数据和状态都是必须在所有节点上复制的,rabbitmq节点可以动态的加入到集群中,一个节点它可以加入到集群中,也可以从集群环集群会进行一个基本的负载均衡。
集群中有两种节点:
(1) 内存节点:只保存状态到内存(一个例外的情况是:持久的queue的持久内容将被保存到disk)
(2) 磁盘节点:保存状态到内存和磁盘。
内存节点虽然不写入磁盘,但是它执行比磁盘节点要好。集群中,只需要一个磁盘节点来保存状态 就足够了
如果集群中只有内存节点,那么不能停止它们,否则所有的状态,消息等都会丢失。
集群实现思路:
那么具体如何实现RabbitMQ高可用,我们先搭建一个普通集群模式,在这个模式基础上再配置镜像模式实现高可用,Rabbit集群前增加一个反向代理,生产者、消费者通过反向代理访问RabbitMQ集群,如图:
3. RabbitMQ普通模式集群配置
3.1 安装 rabbitmq
(1)修改主机名、安装 rabbitmq
192.168.118.15 、192.168.118.16、192.168.118.17 对应执行以下操作(主机各自的主机名)
[root@192.168.118.15 ~]# hostnamectl set-hostname node1
[root@192.168.118.15 ~]# hostname node1
[root@192.168.118.15 ~]# cd /opt/
[root@192.168.118.15 /opt]# ls??
# erlang、rabbitmq-server 下载地址:http://ww.rabbitmq.com/releases/
erlang-19.0.4-1.el6.x86_64.rpm??rabbitmq-server-3.6.13-1.el7.noarch.rpm
[root@192.168.118.15 /opt]# yum install *.rpm -y
只需在node1(192.168.118.15)上启动服务
[root@192.168.118.15 /opt]#systemctl start rabbitmq-server # 启动服务
[root@192.168.118.15 ~]#rabbitmq-plugins enable rabbitmq_management # 开启后端web管理
[root@192.168.118.15 ~]#netstat -ntplu | egrep beam
tcp 0 0 0.0.0.0:25672 0.0.0.0:* LISTEN 4557/beam
tcp 0 0 0.0.0.0:15672 0.0.0.0:* LISTEN 4557/beam
tcp6 0 0 :::5672 :::* LISTEN 4557/beam
(2)拷贝 .erlang.cookie
Rabbitmq的集群是依附于erlang的集群工作的,所以必须先构建起erlang的集群模式。erlang.cookie是erlang实现分布式的必要文件,erlang分布式的每个节点上要保持相同的.erlang.cookie文件,同时保证文件的权限是400
[root@192.168.118.15 ~]#cat /var/lib/rabbitmq/.erlang.cookie
GFCOJDLAKUIEJCLKCNVR
将 192.168.118.15 的 .erlang.cookie 文件拷贝到 192.168.118.16、192.168.118.17 对应的目录下并设置权限
[root@192.168.118.15 ~]#scp /var/lib/rabbitmq/.erlang.cookie node2:/var/lib/rabbitmq/
[root@192.168.118.15 ~]#scp /var/lib/rabbitmq/.erlang.cookie node3:/var/lib/rabbitmq/
分别在 192.168.118.16、192.168.118.17 赋予权限
192.168.118.16
[root@192.168.118.16 ~]#ll /var/lib/rabbitmq/.erlang.cookie
-r-------- 1 root root 20 Jan 7 20:43 /var/lib/rabbitmq/.erlang.cookie
[root@192.168.118.16 ~]#chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie
192.168.118.17
[root@192.168.118.17 ~]#ll /var/lib/rabbitmq/.erlang.cookie
-r-------- 1 root root 20 Jan 7 20:45 /var/lib/rabbitmq/.erlang.cookie
[root@192.168.118.17 ~]#chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie
开启 node2(192.168.118.16) node3(192.168.118.17) 服务
[root@192.168.118.16 ~]#systemctl start rabbitmq-server
[root@192.168.118.17 ~]#systemctl start rabbitmq-server
(3)将node2(192.168.118.16)、node3(192.168.118.17) 作为内存节点加入node1(192.168.118.15)节点集群中
node2(192.168.118.16)
[root@192.168.118.16 ~]#rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node2
[root@192.168.118.16 ~]#rabbitmqctl join_cluster --ram rabbit@node1
Clustering node rabbit@node2 with rabbit@node1
[root@192.168.118.16 ~]#rabbitmqctl start_app
Starting node rabbit@node2
node3(192.168.118.17)
[root@192.168.118.17 ~]#rabbitmqctl stop_app # 停止rabbit应用
Stopping rabbit application on node rabbit@node3
[root@192.168.118.17 ~]#rabbitmqctl join_cluster --ram rabbit@node1 # 加入到磁盘节点
Clustering node rabbit@node3 with rabbit@node1
[root@192.168.118.17 ~]#rabbitmqctl start_app # 启动rabbit应用
Starting node rabbit@node3
A. 默认rabbitmq启动后是磁盘节点,在这个cluster命令下,node2和node3是内存节点,node1是磁盘节点。
B. 如果要使node2、node3都是磁盘节点,去掉--ram参数即可。
C. 如果想要更改节点类型,可以使用命令rabbitmqctl change_cluster_node_type disc(ram),前提是必须停掉rabbit应用。
(4)查看集群状态
[root@192.168.118.15 ~]#rabbitmqctl cluster_status
Cluster status of node rabbit@node1
[{nodes,[{disc,[rabbit@node1]},{ram,[rabbit@node3,rabbit@node2]}]},
{running_nodes,[rabbit@node3,rabbit@node2,rabbit@node1]}, # 正在运行中的集群节点
{cluster_name,<<"rabbit@node1">>},
{partitions,[]},
{alarms,[{rabbit@node3,[]},{rabbit@node2,[]},{rabbit@node1,[]}]}]
(5)为rabbit添加用户并授权
[root@192.168.118.15 ~]#rabbitmqctl add_user admin admin # 新建用户
Creating user "admin"
[root@192.168.118.15 ~]#rabbitmqctl set_user_tags admin administrator # 赋予管理员角色
Setting tags for user "admin" to [administrator]
[root@192.168.118.15 ~]#rabbitmqctl set_permissions admin '.*' '.*' '.*' # 授予管理、写、读权限
Setting permissions for user "admin" in vhost "/"
(6)登录rabbitmq web管理控制台,创建新的队列
打开浏览器输入 http://192.168.118.15:15672/ 刚才的创建的用户:admin 密码: admin,登录后出现如图:
根据页面提示创建一条队列
在RabbitMQ普通集群中,必须至少有一个磁盘节点,否则队列元数据无法写入到集群中,当磁盘节点宕掉时,集群将无法写入新的队列元数据信息。
到此,rabbitmq 普通模式搭建完毕。
4. RabbitMQ 镜像集群配置
上面已经完成RabbitMQ默认集群模式,但并不保证队列的高可用性,尽管交换机、绑定这些可以复制到集群里的任何一个节点,但是队列内容不会复制。虽然该模式解决一项目组节点压力,但队列节点宕机直接导致该队列无法应用,只能等待重启,所以要想在队列节点宕机或故障也能正常应用,就要复制队列内容到集群里的每个节点,必须要创建镜像队列。
镜像队列是基于普通的集群模式的,然后再添加一些策略,所以你还是得先配置普通集群,然后才能设置镜像队列,我们就以上面的集群接着做。
设置的镜像队列可以通过开启的网页的管理端,也可以通过命令,这里说的是其中的网页设置方式。
(1) 创建rabbitmq策略
在node1(192.168.118.15)节点的控制台上创建策略
A. 点击admin菜单–>右侧的Policies选项–>左侧最下下边的Add/update a policy。
B. 按照图中的内容根据自己的需求填写。
Name:策略名称
Pattern:匹配的规则,这里表示所有的队列,如果是匹配以a开头的队列,那就是^a.
Definition:使用ha-mode模式中的all,也就是同步所有匹配的队列。问号链接帮助文档。
点击Add policy添加策略
此时分别登陆node2、node3两个节点的控制台,可以看到上面添加的这个策略,如图所示:
node2
node3
(2)添加队列
在node1节点的控制台上添加队列
A. 点击Queues菜单–>左侧下边的Add a new queue
B. 输入Name和Arguments参数的值,别的值默认即可
Name:队列名称
Durability:队列是否持久化
Node:消息队列的节点
Auto delete:自动删除
Arguments:使用的策略类型
将鼠标指向+2可以显示出另外两台消息节点。
(3)创建消息
A. 点击superman队列按钮
B. 拖动滚动条,点击publish message
C. 填写相关内容
2-Persistent:表示持久化
Headers:随便填写即可
Properties:点击问号,选择一个消息ID号
Payload:消息内容
点击queue按钮,发现superman队列的Ready和Total中多了一条消息记录。
(4)做破坏性测试
A. 将node1节点的服务关闭,再通过node2和node3查看消息记录是否还存在。
停止 node1 rabbitmq服务
[root@192.168.118.15 ~]#systemctl stop rabbitmq-server
node2
node3
从中可以看到ab队列已经从之前的+2显示成+1了,而且消息记录是存在的。
B. 再将node2(192.168.118.16)节点的服务关闭,通过node3查看消息记录是否还存在。
[root@192.168.118.16 ~]#systemctl stop rabbitmq-server
从中可以看到superman队列和消息记录还是存在的,只是变成了一个节点了。
C. 将node1和node2的服务再启动起来
[root@192.168.118.15 ~]#rabbitmqctl sync_queue superman
[root@192.168.118.16 ~]#rabbitmqctl sync_queue superman
从提示中显示镜像无法同步。如果这时候停掉node3节点的服务,那么队列里面的消息将会丢失。
启动后,不同步的解决方法是在node1、node2节点上执行同步命令。
[root@192.168.118.15 ~]#rabbitmqctl sync_queue superman
[root@192.168.118.16 ~]#rabbitmqctl sync_queue superman
同步完成后,就显示同步镜像的节点。
这样,我们就测试了rabbitmq集群的破坏性测试,说明集群配置成功。
5. 安装配置 Haproxy
(1)修改主机名
[root@192.168.118.14 ~]#hostnamectl set-hostname haproxy ; hostname haproxy
(2)安装haproxy 这里就直接使用epel源安装haproxy
[root@192.168.118.14 ~]#yum install haproxy -y
(3)修改配置文件
[root@192.168.118.14 ~]#egrep -v '#|^$' /etc/haproxy/haproxy.cfg
global
log 127.0.0.1 local2
chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
maxconn 4000
user haproxy
group haproxy
daemon
stats socket /var/lib/haproxy/stats
defaults
mode http
log global
option httplog
option dontlognull
option http-server-close
option forwardfor except 127.0.0.0/8
option redispatch
retries 3
timeout http-request 10s
timeout queue 1m
timeout connect 10s
timeout client 1m
timeout server 1m
timeout http-keep-alive 10s
timeout check 10s
maxconn 3000
listen http_front # haproxy 管理后台
bind 0.0.0.0:1080 # 监听端口
mode http # 开启模式为http
stats enable # 开启后台统计
stats hide-version # 隐藏统计页面上HAProxy的版本信息
stats refresh 30s # 统计页面自动刷新时间
stats uri /stats # 统计页面uri
stats realm Haproxy Manager # 统计页面密码框上提示文本
stats auth admin:admin # 统计页面用户名和密码设置
stats admin if TRUE # 此项是实现haproxy监控页的管理功能的
listen rabbitmq_cluster # RabbitMQ 集群负载
bind 0.0.0.0:5672 # 监听端口
option tcplog
mode tcp
timeout client 3h
timeout server 3h
option clitcpka
balance roundrobin # 负载均衡算法
server node2 192.168.118.16:5672 check inter 5s rise 2 fall 3
server node3 192.168.118.17:5672 check inter 5s rise 2 fall 3
server <name>:定义haproxy内RabbiMQ服务的标识
ip:port: 标识了后端RabbitMQ的服务地址
check inter 5s: 表示每个5秒检测RabbitMQ服务是否可用
rise 2: 表示RabbitMQ服务在发生故障之后,需要2次健康检查才能被再次确认可用
fall 3: 表示需要经历 3 次失败的健康检查之后,HaProxy才会停止使用此RabbitMQ服务
具体HaProxy 相关说明:https://www.cnblogs.com/hukey/p/5586765.html
(4)启动haproxy
[root@192.168.118.14 ~]#systemctl start haproxy
[root@192.168.118.14 ~]#netstat -ntplu | egrep haproxy
tcp 0 0 0.0.0.0:5672 0.0.0.0:* LISTEN 19006/haproxy
tcp 0 0 0.0.0.0:1080 0.0.0.0:* LISTEN 19006/haproxy
udp 0 0 0.0.0.0:43437 0.0.0.0:* 19005/haproxy
通过浏览器登录haproxy统计后台 http://192.168.118.14:1080/stats
到此,RabbitMQ + HaProxy 高可用集群搭建完毕,后面可自行进行测试。
本文参考链接:
http://blog.51cto.com/11134648/2155934
https://www.jianshu.com/p/6376936845ff