本次分享内容由三个部分组成:
-
微服务架构与MQ
-
RabbitMQ场景分析与优化
-
RabbitMQ在网易蜂巢中的应用和案例分享
1微服务架构与MQ
微服务架构是一种架构模式,它将单体应用划分成一组微小的服务,各服务之间使用轻量级的通信机制交互。
上图左边是单体架构应用,把所有业务功能放在单个进程中,需要扩展时以进程为单位水平复制到多台机器。
上图右边是微服务架构应用,将每个业务功能以独立进程(服务)的方式部署,可以按需将微服务分别部署在多台机器,实现水平扩展。
微服务各服务之间使用“轻量级”的通信机制。所谓轻量级,是指通信协议与语言无关、与平台无关。
微服务通信方式:
-
同步:RPC,REST等
-
异步:消息队列
同步通信方式
优点:
-
实现方便。
-
协议通用,比如HTTP大家都非常熟知。
-
系统架构简单,无需中间件代理。
缺点:
-
客户端耦合服务方。
-
通信双方必须同时在线,否则会造成阻塞。
-
客户端需要知道服务方的Endpoint,或者需要支持服务发现机制。
异步通信方式
优点:
-
系统解耦和。
-
通信双方可以互相对对方无感知。
缺点:
-
额外的编程复杂性。比如需要考虑消息可靠传输、高性能,以及编程模型的变化等。
-
额外的运维复杂性。比如消息中间件的稳定性、高可用性、扩展性等非功能特性。
今天的主题是消息队列在微服务架构中的应用与实践。
消息队列中间件如何选型?主要会考虑以下几点:
-
协议:AMQP、STOMP、MQTT、私有协议等
-
消息是否需要持久化
-
吞吐量
-
高可用支持,是否单点
-
分布式扩展能力
-
消息堆积能力和重放能力
-
开发便捷,易于维护
-
社区成熟度
选择RabbitMQ的原因:
-
开源,跨平台
-
灵活的消息路由策略
-
持久化,消息可靠传输
-
透明集群,HA支持
-
支持高性能高并发访问
-
支持多种消息协议
-
丰富的客户端、插件和平台支持
-
支持RPC解决方案
2RabbitMQ场景分析与优化
RabbitMQ是一个实现了AMQP(高级消息队列协议)协议的消息队列中间件。
AMQP基本模型:
1. Queue
2. Exchange: Direct, Fanout, Topic, Header
3. Binding: BindingKey, RouteKey
总结:生产者将消息发送到Exchange,Exchange通过匹配BindingKey和消息中的RouteKey来将消息路由到队列,最后队列将消息投递给消费者。
消息可靠传输是业务系统接入MQ时首先要考虑的问题。一般消息可靠性有三个等级:
-
At most once: 最多一次
-
At least once: 最少一次
-
Exactly once: 恰好一次
RabbitMQ支持其中的“最多一次”和“最少一次”两种。其中“最少一次”投递实现机制:
-
生产者confirm。如何开启:使用confirm.select
-
消息持久化。
-
消费者ack。如何开启:使用basic.consume(…, no-ack=false)
这里说下RabbitMQ消息持久化(写磁盘)的两个场景:
-
显式指定消息属性:delivery-mode=2
-
内存吃紧时,消息(包括非持久化消息)转存到磁盘,由memory_high_watermark_paging_ratio参数指定阈值。
RabbitMQ的消息持久化是通过以下机制实现的:
-
消息体写文件
-
异步刷盘,合并请求,减少fsync系统调用次数
-
当进程mailbox没有新消息时,实时刷盘
-
confirm机制下,等fsync系统调用完成后返回basic.ack确认
RabbitMQ开启消息可靠性参数需要注意:
-
unack消息在服务器端没有超时,只能等待客户端连接断开,重新入队等待投递。
-
消息存在重复投递的情况,需客户端去重:
a)基于业务层的MsgId。
b)基于RabbitMQ的Redelivered flag标记: 不完全靠谱,仍旧可能收到重复消息。
-
保障性能:
a)批量publish, ack。
b)更快的磁盘(SSD,RAID等)。
c)少堆积。
-
消息乱序。
生产者confirm机制是三个可靠性参数中对性能影响最大的。一般来说有三种编程方式:
-
普通confirm模式。每发送一条消息后,调用waitForConfirms()方法,等待服务器端confirm。实际上是一种串行confirm。
-
批量confirm模式。每次发送一批消息后,调用waitForConfirms()方法,等待服务器端confirm。
-
异步confirm模式。注册一个回调方法,服务器端confirm了一条(或多条)消息后SDK会回调这个方法。
下面是一些生产者confirm机制的专项性能测试数据:
总结:
-
遵循线程数越大,吞吐量越大的规律。当线程数量达到一个阈值之后,吞吐量开始下降。
-
不论哪种confirm模式,通过调整客户端线程数量,都可以达到一个最大吞吐量值。
-
异步和批量confirm模式两者没有明显的性能差距。所以,只需从可编程性的角度选择异步或批量或者两者结合的模式即可。相比而言,普通confirm模式只剩编程简单这个理由了。
下面讲下RabbitMQ的高可用机制。
官方提供的高可用方案:cluster + ha policy
cluster机制:多个全联通节点之间元信息(exchange、queue、binding等)保持强一致,但是队列消息只会存储在其中一个节点。
优点:提高吞吐量,部分解决扩展性问题。
缺点:不能提升数据可靠性和系统可用性。
ha policy机制:在cluster机制基础上可以指定集群内任意数量队列组成镜像队列,队列消息会在多节点间复制。实现数据高可靠和系统高可用。
设置参数:ha-mode和ha-params可以细粒度(哪些节点,哪些队列)设置镜像队列。
设置参数:ha-sync-mode=manual(默认)/automatic可以指定集群中新节点的数据同步策略。
有一点需要注意:镜像队列对网络抖动非常敏感,默认参数配置下,出现脑裂后RabbitMQ集群不会自我恢复,需要人工介入恢复,务必加好监控和报警。
RabbitMQ流控机制 流控类型:
-
内存流控:由vm_memory_high_watermark参数控制,默认0.4
-
磁盘流控:由disk_free_limit参数控制,默认50M
-
单条连接流控:触发条件是下游进程的处理速度跟不上上游进程。
RabbitMQ内部进程关系调用图
注意:当触发流控(全局内存/磁盘流控,单条连接流控)时,生产者端的publish方法会被阻塞,生产者需要做的是:
-
注册block事件,被流控时,会收到一个回调通知。
-
异步化处理生产者发送消息,不要阻塞主流程。
3RabbitMQ在网易蜂巢中的应用和案例分享
网易蜂巢平台的服务化架构如下,服务间通过RabbitMQ实现通信:
网易蜂巢消息服务器设计目标:实现一个路由灵活、数据可靠传输、高可用、可扩展的消息服务器。
设计要点:
-
Exchange类型为topic。
-
BindingKey就是队列名。
-
每个服务(图例中的REPO/CTRL/WEB等)启动后会初始化一条AMQP连接,由3个channel复用:一个channel负责生产消息,一个channel从TYPE(REPO/CTRL/WEB等)类型的队列消费消息,一个channel从TYPE.${hostname}类型的队列消费消息。
应用场景举例:
-
点对点(P2P)或请求有状态服务:消息的RouteKey设置为TYPE.${HOSTNAME}。如host1上的WEB服务需要向host2上的REPO服务发送消息,只需将消息的RouteKey设置为REPO.host2投递到Exchange即可。
-
请求无状态服务:如果服务提供方是无状态服务,服务调用方不关心由哪个服务进行响应,那么只需将消息的RouteKey设置为TYPE。比如CTRL是无状态服务,host1上的WEB服务只需将消息的RouteKey设置为CTRL即可。CTRL队列会以Round-Robin的均衡算法将消息投递给其中的一个消费者。
-
组播:如果服务调用方需要与某类服务的所有节点通信,可以将消息的RouteKey设置为TYPE.*,Exchange会将消息投递到所有TYPE.${HOSTNAME}队列。比如WEB服务需通知所有CTRL服务更新配置,只需将消息的RouteKey设置为CTRL.*。
-
广播:如果服务调用方需要与所有服务的所有节点通信,也就是说对当前系统内所有节点广播消息,可以将消息的RouteKey设置为*.*。
总结:通过对RouteKey和BindingKey的精心设计,可以满足点对点(私信)、组播、广播等业务场景的通信需求。
优缺点分析:
优点:
-
路由策略灵活。
-
支持负载均衡。
-
支持高可用部署。
-
支持消息可靠传输(生产者confirm,消费者ack,消息持久化)。
-
支持prefetch count,支持流控。
缺点:
-
存在消息重复投递的可能性。
-
超时管理,错误处理等需业务层处理。
-
对于多服务协作的场景支持度有限。比如以下场景:WEB=> CTRL=>REPO=>CTRL=> WEB。这个时候就需要CTRL缓存WEB请求,直至REPO响应。
实践案例分享
案例一:GC引起的MQ crash
1.环境参数:
2.现象:
RabbitMQ崩溃,产生的erl_crash.dump文件内容如下:
3.直接原因:
从数据来看,虚拟机内存共4G,Erlang虚拟机已占用约1.98G内存(其中分配给Erlang进程的占1.56G),此时仍向操作系统申请1.82G,因为操作系统本身以及其他服务也占用一些内存,当前系统已经分不出足够的内存了,所以Erlang虚拟机崩溃。
4.分析:
本例有两个不符合预期的数据:
1. 内存流控阈值控制在1.67G左右(4G*0.4),为什么崩溃时显示占用了1.98G?
2. 为什么Erlang虚拟机会额外再申请1.82G内存?
因为:
-
RabbitMQ每个队列设计为一个Erlang进程,由于进程GC也是采用分代策略,当新老生代一起参与Major GC时,Erlang虚拟机会新开内存,根据root set将存活的对象拷贝至新空间,这个过程会造成新老内存空间同时存在,极端情况下,一个队列可能短期内需要两倍的内存占用量。这就是RabbitMQ将内存流控的安全阈值默认设置为0.4的原因。
-
内存流控参数vm_memory_high_watermark 为0.4的意思是,当RabbitMQ的内存使用量大于40%时,开始进行生产者流控,但是该参数并不承诺RabbitMQ的内存使用率不大于40%。
5.如何解决(规避)?
-
RabbitMQ独立部署,不与其他Server共享内存资源。
-
进一步降低vm_memory_high_watermark值,比如设置成0.3,但是这种方式会造成内存资源利用率太低。
-
升级RabbitMQ至新版(3.4+),新版RabbitMQ对内存管理有过改进。
案例二:镜像队列的单节点磁盘故障造成消息丢失
1.环境参数:RabbitMQ: 3.1.5 (ha policy, ha-mode:all)
2.现象:
a)节点A的数据盘故障(磁盘控制器故障、无法读写),所有原本A上的生产者消费者failover到B节点。
b)从节点B的WebUI上看,所有队列信息(包括队列元信息和数据)丢失,但是exchange、binding、vhost等依旧存在。
c)节点B的日志中出现大量关于消费请求的错误日志:
d)从生产者端看来一切正常,依旧会收到来自节点B的confirm消息(basic.ack amqp方法)。
3.分析:
上述现象实际上有两个坑在里面:
-
在数据可靠传输方面,镜像队列也不完全可靠。这是一个Bug。RabbitMQ 3.5.1版本以下都存在这个问题。
-
要保证消息可靠性,生产者端仅仅采用confirm机制还不够。对于那些路由不可达的消息(根据RouteKey匹配不到相应队列),RabbitMQ会直接丢弃消息,同时confirm客户端。
4.如何解决(规避)?
-
升级RabbitMQ到新版,至少3.5.1及以上。
-
生产者basic.publish方法设置mandatory参数,它的作用是:对于那些路由不可达的消息,RabbitMQ会先通过basic.return消息向生产者返回消息内容,然后再发送basic.ack消息进行确认
Q & A
Q1:为保障消息队列稳定性,消息队列监控点主要有哪些?
A1:首先是服务器的基础监控是要的。CPU,内存,磁盘IO都是敏感项。特别是内存,报警阈值可能要设置在50%以下,原因前面也说过,极端情况下一个队列的内存占用量可能是两倍当前值。
然后MQ业务的监控也需要加,比如消息堆积数,unack的消息数,连接数,channel数等等。RabbitMQ有提供rest api可以拿到这些监控。
还有因为RabbitMQ对网络分区非常敏感,所以日志监控也要加。RabbitMQ出现网络分区或者触发流控都会在它的运行日志中有输出。
大致就是这么几点。
Q2:rabbitmq有尝试结合netty提高网络处理能力?
A2:erlang是actor模型代表,我觉得它的网络处理能力也不比netty差的。