RabbitMQ笔记
初识MQ
同步调用
目前,我们的大多数业务是基于OpenFeign调用,属于同步调用。通过一个例子分析什么是同步调用,以及同步调用在该类场景下的缺陷。
现在假设我们有一个用户下单功能,如果我们使用同步调用,则业务逻辑大致可分为:
- 支付服务需要先调用用户服务完成余额扣减
- 然后支付服务自己要更新支付流水单的状态
- 然后支付服务调用交易服务,更新业务订单状态为已支付
从上面的示例中,至少存在3个问题:
拓展性差:
当前业务逻辑简单,但是随着业务规模的扩展,产品的功能也需要不断扩展,随之而来的就是支付业务变得十分臃肿。
例如在当前业务基础上增加短信通知功能、下单奖励积分功能等等,那么我们的业务将会编程这样:
所以,当我们业务逻辑可能会有较多扩展的时候,同步调用会导致代码大量高频改动,违反了开闭原则。
性能降低:
同步调用是阻塞式的,调用者需要等待当前调用服务执行完成后才会继续向下执行,那么最终整个业务的时间就是这些调用过程之和,也就会编程这样:
我们假设每一个微服务的调用时间为50ms,那么最终整个业务将耗时300ms,性能极低!
级联失败:
由于我们的每一次调用都是串联的,这就意味着一旦某一个服务出现故障,那么整个事务将进行回滚,最终导致交易失败~~,让公司产生损失,导致被开除~~。
但实际上在我们的业务场景中,我们真的需要这样串行的执行吗?
我们一旦扣款成功,后面的一系列事情就可以自己慢慢去处理。我们只需要确保支付流水单更新成功,确保交易完成~~,钱都到手了,创建订单那些事慢慢做嘛,保证公司利益至上,得到领导重用,一路升职加薪~~。
由于以上几个问题,我们的调用必须调整,利用异步调用替代同步调用。
异步调用
所谓的异步调用方式其实就是基于消息通知的方式,一般包含三个角色:
- 消息发送者:投递消息的人,就是原来的调用方
- 消息Broker:管理、暂存、转发消息
- 消息接收者:接收和处理消息的人,就是原来的服务提供方
在异步调用中,发送者不再直接同步调用接收者的业务接口,而是发送一条消息投递给消息Broker。然后接收者根据自己的需求从消息Broker那里订阅消息。每当发送方发送消息后,接受者都能获取消息并处理。
这样,发送消息的人和接收消息的人就完全解耦了。
我们还是以下单业务为例讲解异步调用的优势。
除了扣减余额、更新支付流水单状态以外,其它调用逻辑全部取消。而是改为发送一条消息到Broker。而相关的微服务都可以订阅消息通知,一旦消息到达Broker,则会分发给每一个订阅了的微服务,处理各自的业务。
再从刚刚的示例看,假设现在产品经理增加了下单送积分的功能,那么支付部分的代码完全不需要变动,而是新增一个积分服务,同时让积分服务订阅消息即可:
从这个示例中,我们可以分析出,不管后期增加了多少消息订阅者,作为支付服务来讲,执行问扣减余额、更新支付流水状态后,发送消息即可。业务耗时仅仅是这三部分业务耗时,仅仅100ms,大大提高了业务性能。
并且,不管是交易服务、通知服务,还是积分服务,他们的业务与支付关联度低。现在采用了异步调用,他们即便执行过程中出现了故障,也不会影响到支付服务,大大降低业务间的耦合。
所以,异步调用的优势可以概括为:
- 合度更低
- 性能更好
- 业务拓展性强
- 故障隔离,避免级联失败
当然了,异步通信也并非完美无缺,也会有不足之处(毕竟缺点也是优点的衍生物):
技术选型
所谓技术选型,其实就是结合当前业务横向对比当前主流的技术,选择最为合适的技术。
目前主流的MQ有:
- RabbitMQ
- ActiveMQ
- RocketMQ
- Kafka
- 追求可用性: Kafka、 RocketMQ 、RabbitMQ
- 追求可靠性:RabbitMQ、RocketMQ
- 追求吞吐能力: RocketMQ、Kafka
- 追求消息低延迟:RabbitMQ、Kafka
据统计,目前国内消息队列使用最多的还是RabbitMQ,再加上其各方面都比较均衡,稳定性也好,所以在此学习RabbitMQ。
RabbitMQ
RabbitMQ是实现了高级消息队列协议(AMQP)的开源消息代理软件(亦称面向消息的中间件)。RabbitMQ服务器是用Erlang语言(面向并发的语言)编写的,而集群和故障转移是构建在开放电信平台框架上的。
RabbitMQ对应的架构如图所示:
其中包含几个概念:
- publisher:生产者,也就是发送消息的一方
- consumer:消费者,也就是消费消息的一方
- queue:队列,存储消息。生产者投递的消息会暂存在消息队列中,等待消费者处理
- exchange:交换机,负责消息路由。生产者发送的消息由交换机决定投递到哪个队列。
- virtual host:虚拟主机,起到数据隔离的作用。每个虚拟主机相互独立,有各自的exchange、queue
以上这几个部分均可在RabbitMQ官方提供的控制台进行管理。
收发消息
交换机
我们打开Exchanges选项卡,可以看到已经存在很多交换机:
我们点击任意交换机,即可进入交换机详情页面。仍然会利用控制台中的publish message 发送一条消息:
这里是由控制台模拟了生产者发送的消息。由于没有消费者存在,最终消息丢失了,这样说明交换机没有存储消息的能力。
队列
我们打开Queues选项卡,新建一个队列:
命名为hello.queue1
:
再以相同的方式,创建一个队列,命名为hello.queue2
,最终队列列表如下:
此时,我们再次向amq.fanout交换机发送一条消息。会发现消息依然没有到达队列。
怎么回事呢?
发送到交换机的消息,只会路由到与其绑定的队列,因此仅仅创建队列是不够的,我们还需要将其与交换机绑定。
交换机-队列(绑定关系)
点击Exchanges
选项卡,点击amq.fanout
交换机,进入交换机详情页,然后点击Bindings
菜单,在表单中填写要绑定的队列名称:
相同的方式,将hello.queue2
也绑定到改交换机。
最终,绑定结果如下:
发送消息
再次回到exchange
页面,找到刚刚绑定的amq.fanout
,点击进入详情页,再次发送一条消息:
回到Queues
页面,可以发现hello.queue
中已经有一条消息了:
点击队列名称,进入详情页,查看队列详情,这次我们点击get message
:
可以看到消息到达队列了:
这个时候如果有消费者监听了MQ的hello.queue1
或hello.queue2
队列,就能接收到消息了。
数据隔离
用户管理
点击Admin
选项卡,首先会看到RabbitMQ控制台的用户管理界面:
这里的用户都是RabbitMQ的管理或运维人员。目前只有安装RabbitMQ时添加的itheima
这个用户。仔细观察用户表格中的字段,如下:
Name
:itheima
,也就是用户名Tags
:administrator
,说明itheima
用户是超级管理员,拥有所有权限Can access virtual host
:/
,可以访问的virtual host
,这里的/
是默认的virtual host
对于小型企业而言,出于成本考虑,我们通常只会搭建一套MQ集群,公司内的多个不同项目同时使用。这个时候为了避免互相干扰, 我们会利用virtual host
的隔离特性,将不同项目隔离。一般会做两件事情:
- 给每个项目创建独立的运维账号,将管理权限分离。
- 给每个项目创建不同的
virtual host
,将每个项目的数据隔离。
比如,我们给黑马商城创建一个新的用户,命名为hmall
:
你会发现此时hmall
用户没有任何virtual host
的访问权限:
接下来我们将给hmall
用户创建自己的virtual host
。
virtual host
我们先退出登录:
切换到刚刚创建的hmall
用户登录,然后点击Virtual Hosts
菜单,进入virtual host
管理页:
可以看到目前只有一个默认的virtual host
,名字为 /
。
我们可以给黑马商城项目创建一个单独的virtual host
,而不是使用默认的/
。
创建完成后如图:
由于我们是登录hmall
账户后创建的virtual host
,因此回到users
菜单,你会发现当前用户已经具备了对/hmall
这个virtual host
的访问权限了:
此时,点击页面右上角的virtual host
下拉菜单,切换virtual host
为 /hmall
:
然后再次查看queues
选项卡,会发现之前的队列已经看不到了:
这就是基于virtual host
的隔离效果。
SpringAMQP
将来我们开发业务功能的时候,肯定不会在控制台收发消息,而是应该基于编程的方式。由于RabbitMQ采用了AMQP协议,因此它具备跨语言的特性。任何语言只要遵循AMQP协议收发消息,都可以与RabbitMQ交互。并且RabbitMQ官方也提供了各种不同语言的客户端。
但是,RabbitMQ官方提供的Java客户端编码相对复杂,一般生产环境下我们更多会结合Spring来使用。而Spring的官方刚好基于RabbitMQ提供了这样一套消息收发的模板工具:SpringAMQP。并且还基于SpringBoot对其实现了自动装配,使用起来非常方便。
SpringAMQP的官方地址:
Spring AMQP
SpringAMQP提供了三个功能:
创建Demo
创建微服务项目Demo
,项目结构如图:
包括三部分:
- mq-demo:父工程,管理项目依赖
- publisher:消息的发送者
- consumer:消息的消费者
父工程的pom
文件配置如下:
1 |
|
当我们在父工程中引入了相关依赖后,子工程就能直接使用SpringAMQP了。publisher
服务的application.yml
文件配置如下:
1 | spring: |
consumer
服务的application.yml
文件配置如下:
1 | spring: |
声明队列与交换机
在实际开发时,队列和交换机是程序员定义的,将来项目上线,又要交给运维去创建。那么程序员就需要把程序中运行的所有队列和交换机都写下来,交给运维。在这个过程中是很容易出现错误的。
因此推荐的做法是由程序启动时检查队列和交换机是否存在,如果不存在自动创建。
几种交换机类型
FanoutExchange
:将消息分发到所有的绑定队列,无routingkey
的概念HeadersExchange
:通过添加属性key-value
匹配DirectExchange
:按照routingkey
分发到指定队列TopicExchange
:多关键字匹配,支持通配符
基本API
SpringAMQP提供了一个Queue类,用来创建队列:
SpringAMQP还提供了一个Exchange接口,来表示所有不同类型的交换机:
我们可以自己创建队列和交换机,不过SpringAMQP还提供了ExchangeBuilder来简化这个过程:
而在绑定队列和交换机时,则需要使用BindingBuilder来创建Binding对象:
fanout示例
在consumer中创建一个类,声明队列和交换机:
1 | package com.itheima.consumer.config; |
direct示例
direct模式由于要绑定多个KEY,会非常麻烦,每一个Key都要编写一个binding:
1 | package com.itheima.consumer.config; |
基于注解声明
基于@Bean的方式声明队列和交换机比较麻烦,Spring还提供了基于注解方式来声明。
例如,我们同样声明Direct模式的交换机和队列:
1 |
|
从代码上看,简单了非常多,再看看Topic
模式:
1 |
|
消息发送与接收
消息发送
1 | package com.itheima.publisher.amqp; |
消息接收
1 | package com.itheima.consumer.listener; |
消息转换器
注意不要将消息转换器和交换机搞混了,消息转换器是一个用于将消息转换为特定格式或类型的组件,而交换机是路由消息到队列的工具。
Spring的消息发送代码接收的消息体是一个Object:
而在数据传输时,它会把你发送的消息序列化为字节发送给MQ,接收消息的时候,还会把字节反序列化为Java对象。
默认转换器
只不过,默认情况下Spring采用的序列化方式是JDK序列化。众所周知,JDK序列化存在下列问题:
- 数据体积过大
- 有安全漏洞(反序列化时可能被篡改)
- 可读性差
配置JSON转换器
显然,JDK序列化方式并不合适。我们希望消息体的体积更小、可读性更高,因此可以使用JSON方式来做序列化和反序列化。
- 引入依赖
1 | <dependency> |
- 在配置类中添加Bean
1 |
|
消息转换器中添加的messageId可以便于我们将来做幂等性判断,但是该方案并不是很好,因为会导致业务方(消费者)被侵入额外的逻辑,同时还要读写数据库操作。
业务使用RabbitMQ
不管是生产者还是消费者,都需要配置MQ的基本信息。分为两步:
- 添加依赖:
1 | <!--消息发送--> |
- 配置MQ地址:
1 | spring: |
发送消息
修改pay-service
服务下的com.hmall.pay.service.impl.PayOrderServiceImpl
类中的tryPayOrderByBalance
方法:
1 | private final RabbitTemplate rabbitTemplate; |
防止对原有业务有影响,可以在
catch
中加入失败后的兜底方案
接收消息
在trade-service
服务中定义一个消息监听类:
其代码如下:
1 | package com.hmall.trade.listener; |
生产者的可靠性
从本章开始的三个章节,将会分析消息传递过程中消息丢失的环节及解决方式。
消息从发送者发送消息,到消费者处理消息,需要经过的流程是这样的:
消息从生产者到消费者的每一步都可能导致消息丢失:
- 发送消息时丢失:
- 生产者发送消息时连接MQ失败
- 生产者发送消息到达MQ后未找到
Exchange
- 生产者发送消息到达MQ的
Exchange
后,未找到合适的Queue
- 消息到达MQ后,处理消息的进程发生异常
- MQ导致消息丢失:
- 消息到达MQ,保存到队列后,尚未消费就突然宕机
- 消费者处理消息时:
- 消息接收后尚未处理突然宕机
- 消息接收后处理过程中抛出异常
综上,我们要解决消息丢失问题,保证MQ的可靠性,就必须从3个方面入手:
- 确保生产者一定把消息发送到MQ
- 确保MQ不会将消息弄丢
- 确保消费者一定要处理消息
生产者重试机制
首先第一种情况,就是生产者发送消息时,出现了网络故障,导致与MQ的连接中断。
为了解决这个问题,SpringAMQP提供了消息发送时的重试机制。即:当RabbitTemplate
与MQ连接超时后,多次重试。
修改publisher
模块的application.yaml
文件,添加下面的内容:
1 | spring: |
注意:当网络不稳定的时候,利用重试机制可以有效提高消息发送的成功率。不过SpringAMQP提供的重试机制是阻塞式的重试,也就是说多次重试等待的过程中,当前线程是被阻塞的。
如果对于业务性能有要求,建议禁用重试机制。如果一定要使用,请合理配置等待时长和重试次数,当然也可以考虑使用异步线程来执行发送消息的代码。
生产者确认机制
一般情况下,只要生产者与MQ之间的网路连接顺畅,基本不会出现发送消息丢失的情况,因此大多数情况下我们无需考虑这种问题。
不过,在少数情况下,也会出现消息发送到MQ之后丢失的现象,比如:
- MQ内部处理消息的进程发生了异常
- 生产者发送消息到达MQ后未找到
Exchange
- 生产者发送消息到达MQ的
Exchange
后,未找到合适的Queue
,因此无法路由
针对上述情况,RabbitMQ提供了生产者消息确认机制,包括Publisher Confirm
和Publisher Return
两种。在开启确认机制的情况下,当生产者发送消息给MQ后,MQ会根据消息处理的情况返回不同的回执。
具体如图所示:
具体如下:
- 当消息投递到MQ,但是路由失败时,通过Publisher Return返回异常信息,同时返回ack的确认信息,代表投递成功
- 临时消息投递到了MQ,并且入队成功,返回ACK,告知投递成功
- 持久消息投递到了MQ,并且入队完成持久化,返回ACK ,告知投递成功
- 其它情况都会返回NACK,告知投递失败
其中ack
和nack
属于Publisher Confirm机制,ack
是投递成功;nack
是投递失败。而return
则属于Publisher Return机制。
默认两种机制都是关闭状态,需要通过配置文件来开启。
实现生产者确认
- 开启生产者确认配置
在publisher
模块的application.yaml
中添加配置:
1 | spring: |
这里publisher-confirm-type
有三种模式可选:
none
:关闭confirm
机制simple
:同步阻塞等待MQ的回执correlated
:MQ异步回调返回回执
一般我们推荐使用correlated
,回调机制。
- 定义
ReturnCallback
每个RabbitTemplate
只能配置一个ReturnCallback
,因此我们可以在配置类中统一设置。我们在publisher
模块定义一个配置类:
内容如下:
1 | package com.itheima.publisher.config; |
- 定义
ConfirmCallback
由于每个消息发送时的处理逻辑不一定相同,因此ConfirmCallback
需要在每次发消息时定义。具体来说,是在调用RabbitTemplate
中的convertAndSend
方法时,多传递一个参数:
这里的CorrelationData
中包含两个核心的东西:
id
:消息的唯一标示,MQ对不同的消息的回执以此做判断,避免混淆SettableListenableFuture
:回执结果的Future
对象
将来MQ的回执就会通过这个Future
来返回,我们可以提前给CorrelationData
中的Future
添加回调函数来处理消息回执:
我们新建一个测试,向系统自带的交换机发送消息,并且添加ConfirmCallback
:
1 |
|
执行结果如下:
可以看到,由于传递的RoutingKey
是错误的,路由失败后,触发了return callback
,同时也收到了ack
。
当我们修改为正确的RoutingKey
以后,就不会触发return callback
了,只收到ack
。
而如果连交换机都是错误的,则只会收到nack
。
- 注意:
开启生产者确认比较消耗MQ性能,一般不建议开启。而且大家思考一下触发确认的几种情况:
- 路由失败:一般是因为RoutingKey错误导致,往往是编程导致
- 交换机名称错误:同样是编程错误导致
- MQ内部故障:这种需要处理,但概率往往较低。因此只有对消息可靠性要求非常高的业务才需要开启,而且仅仅需要开启ConfirmCallback处理nack就可以了。
MQ的可靠性
消息到达MQ以后,如果MQ不能及时保存,也会导致消息丢失,所以MQ的可靠性也非常重要。
数据持久化
为了提升性能,默认情况下MQ的数据都是在内存存储的临时数据,重启后就会消失。为了保证数据的可靠性,必须配置数据持久化,包括:
交换机持久化
在控制台的Exchanges
页面,添加交换机时可以配置交换机的Durability
参数:
设置为Durable
就是持久化模式,Transient
就是临时模式。
队列持久化
在控制台的Queues页面,添加队列时,同样可以配置队列的Durability
参数:
消息持久化
在控制台发送消息的时候,可以添加很多参数,而消息的持久化是要配置一个properties
:
注意:在开启持久化机制以后,如果同时还开启了生产者确认,那么MQ会在消息持久化以后才发送ACK回执,进一步确保消息的可靠性。
不过出于性能考虑,为了减少IO次数,发送到MQ的消息并不是逐条持久化到数据库的,而是每隔一段时间批量持久化。一般间隔在100毫秒左右,这就会导致ACK有一定的延迟,因此建议生产者确认全部采用异步方式。
LazyQueue
在默认情况下,RabbitMQ会将接收到的信息保存在内存中以降低消息收发的延迟。但在某些特殊情况下,这会导致消息积压,比如:
- 消费者宕机或出现网络故障
- 消息发送量激增,超过了消费者处理速度
- 消费者处理业务发生阻塞
一旦出现消息堆积问题,RabbitMQ的内存占用就会越来越高,直到触发内存预警上限。此时RabbitMQ会将内存消息刷到磁盘上,这个行为成为PageOut
。PageOut
会耗费一段时间,并且会阻塞队列进程。因此在这个过程中RabbitMQ不会再处理新的消息,生产者的所有请求都会被阻塞。
为了解决这个问题,从RabbitMQ的3.6.0版本开始,就增加了Lazy Queues
的模式,也就是惰性队列。惰性队列的特征如下:
- 接收到消息后直接存入磁盘而非内存
- 消费者要消费消息时才会从磁盘中读取并加载到内存(也就是懒加载)
- 支持数百万条的消息存储
使用惰性队列的性能更好的原因是接收到消息直接存入磁盘,避免了非持久化的情况下,内存满时需要向磁盘中
Pageout
,此时mq不能接收消息。同时对磁盘的io
进行了优化,使其效率更高
而在3.12版本之后,LazyQueue
已经成为所有队列的默认格式。因此官方推荐升级MQ为3.12版本或者所有队列都设置为LazyQueue
模式。
消费者可靠性
当RabbitMQ向消费者投递消息以后,需要知道消费者的处理状态如何。因为消息投递给消费者并不代表就一定被正确消费了,可能出现的故障有很多,比如:
- 消息投递的过程中出现了网络故障
- 消费者接收到消息后突然宕机
- 消费者接收到消息后,因处理不当导致异常
一旦发生上述情况,消息也会丢失。因此,RabbitMQ必须知道消费者的处理状态,一旦消息处理失败才能重新投递消息。
本章将研究消费者处理消息时的可靠性解决方案。
消费者确认机制
为了确认消费者是否成功处理消息,RabbitMQ提供了消费者确认机制(Consumer Acknowledgement
)。即:当消费者处理消息结束后,应该向RabbitMQ发送一个回执,告知RabbitMQ自己消息处理状态。回执有三种可选值:
ack
:成功处理消息,RabbitMQ从队列中删除该消息nack
:消息处理失败,RabbitMQ需要再次投递消息reject
:消息处理失败并拒绝该消息,RabbitMQ从队列中删除该消息
一般reject
方式用的较少,除非是消息格式有问题,那就是开发问题了。因此大多数情况下我们需要将消息处理的代码通过try catch
机制捕获,消息处理成功时返回ack
,处理失败时返回nack
。
由于消息回执的处理代码比较统一,因此SpringAMQP
帮我们实现了消息确认。并允许我们通过配置文件设置ACK
处理方式,有三种模式:
none
:不处理。即消息投递给消费者后立刻ack
,消息会立刻从MQ删除。非常不安全,不建议使用manual
:手动模式。需要自己在业务代码中调用api
,发送ack
或reject
,存在业务入侵,但更灵活auto
:自动模式。SpringAMQP
利用AOP
对我们的消息处理逻辑做了环绕增强,当业务正常执行时则自动返回ack
。当业务出现异常时,根据异常判断返回不同结果:- 如果是业务异常,会自动返回
nack
; - 如果是消息处理或校验异常,自动返回
reject
;
- 如果是业务异常,会自动返回
返回Reject的常见异常有:
Starting with version 1.3.2, the default ErrorHandler is now a ConditionalRejectingErrorHandler that rejects (and does not requeue) messages that fail with an irrecoverable error. Specifically, it rejects messages that fail with the following errors:
- o.s.amqp…MessageConversionException: Can be thrown when converting the incoming message payload using a MessageConverter.
- o.s.messaging…MessageConversionException: Can be thrown by the conversion service if additional conversion is required when mapping to a @RabbitListener method.
- o.s.messaging…MethodArgumentNotValidException: Can be thrown if validation (for example, @Valid) is used in the listener and the validation fails.
- o.s.messaging…MethodArgumentTypeMismatchException: Can be thrown if the inbound message was converted to a type that is not correct for the target method. For example, the parameter is declared as Message
but Message is received. - java.lang.NoSuchMethodException: Added in version 1.6.3.
- java.lang.ClassCastException: Added in version 1.6.3.
通过下面的配置可以修改SpringAMQP
的ACK
处理方式:
1 | spring: |
修改consumer
服务的SpringRabbitListener
类中的方法,模拟一个消息处理的异常:
1 |
|
测试可以发现:当消息处理发生异常时,消息依然被RabbitMQ删除了。
我们再次把确认机制修改为auto
:
1 | spring: |
在异常位置打断点,再次发送消息,程序卡在断点时,可以发现此时消息状态为unacked
(未确定状态):
放行以后,由于抛出的是消息转换异常,因此Spring
会自动返回reject
,所以消息依然会被删除:
我们将异常改为RuntimeException
类型:
1 |
|
在异常位置打断点,然后再次发送消息测试,程序卡在断点时,可以发现此时消息状态为unacked
(未确定状态):
放行以后,由于抛出的是业务异常,所以Spring
返回ack
,最终消息恢复至Ready
状态,并且没有被RabbitMQ删除:
当我们把配置改为auto
时,消息处理失败后,会回到RabbitMQ,并重新投递到消费者。
失败重试机制
当消费者出现异常后,消息会不断requeue
(重入队)到队列,再重新发送给消费者。如果消费者再次执行依然出错,消息会再次requeue
到队列,再次投递,直到消息处理成功为止。
极端情况就是消费者一直无法执行成功,那么消息requeue
就会无限循环,导致MQ的消息处理飙升,带来不必要的压力:
当然,上述极端情况发生的概率还是非常低的,不过不怕一万就怕万一。为了应对上述情况Spring
又提供了消费者失败重试机制:在消费者出现异常时利用本地重试,而不是无限制的requeue
到MQ队列。
修改consumer
服务的application.yml
文件,添加内容:
1 | spring: |
重启consumer
服务,重复之前的测试。可以发现:
- 消费者在失败后消息没有重新回到MQ无限重新投递,而是在本地重试了
3
次 - 本地重试
3
次以后,抛出了AmqpRejectAndDontRequeueException
异常。查看RabbitMQ控制台,发现消息被删除了,说明最后SpringAMQP
返回的是reject
结论:
失败处理策略
在之前的测试中,本地测试达到最大重试次数后,消息会被丢弃。这在某些对于消息可靠性要求较高的业务场景下,显然不太合适了。
因此Spring
允许我们自定义重试次数耗尽后的消息处理策略,这个策略是由MessageRecovery
接口来定义的,它有3个不同实现:
RejectAndDontRequeueRecoverer
:重试耗尽后,直接reject
,丢弃消息。默认就是这种方式ImmediateRequeueMessageRecoverer
:重试耗尽后,返回nack
,消息重新入队RepublishMessageRecoverer
:重试耗尽后,将失败消息投递到指定的交换机
比较优雅的一种处理方案是RepublishMessageRecoverer
,失败后将消息投递到一个指定的,专门存放异常消息的队列,后续由人工集中处理。
- 在
consumer
服务中定义处理失败消息的交换机和队列
1 |
|
- 定义一个
RepublishMessageRecoverer
,关联队列和交换机
1 |
|
完整代码如下:
1 | package com.itheima.consumer.config; |
消息可靠性兜底方案
虽然我们利用各种机制尽可能增加了消息的可靠性,但也不好说能保证消息100%的可靠。万一真的MQ通知失败该怎么办呢?
有没有其它兜底方案,能够确保订单的支付状态一致呢?
其实思想很简单:既然MQ通知不一定发送到交易服务,那么交易服务就必须自己主动去查询支付状态。这样即便支付服务的MQ通知失败,我们依然能通过主动查询来保证订单状态的一致。
流程如下:
图中黄色线圈起来的部分就是MQ通知失败后的兜底处理方案,由交易服务自己主动去查询支付状态。
不过需要注意的是,交易服务并不知道用户会在什么时候支付,如果查询的时机不正确(比如查询的时候用户正在支付中),可能查询到的支付状态也不正确。
那么问题来了,我们到底该在什么时间主动查询支付状态呢?
这个时间是无法确定的,因此,通常我们采取的措施就是利用定时任务定期查询,例如每隔20秒就查询一次,并判断支付状态。如果发现订单已经支付,则立刻更新订单状态为已支付即可。
至此,消息可靠性的问题已经解决了。
综上,支付服务与交易服务之间的订单状态一致性是如何保证的?
- 首先,支付服务会正在用户支付成功以后利用MQ消息通知交易服务,完成订单状态同步。
- 其次,为了保证MQ消息的可靠性,我们采用了生产者确认机制、消费者确认、消费者失败重试等策略,确保消息投递的可靠性
- 最后,我们还在交易服务设置了定时任务,定期查询订单支付状态。这样即便MQ通知失败,还可以利用定时任务作为兜底方案,确保订单支付状态的最终一致性。
业务幂等性问题
幂等是一个数学概念,用函数表达式来描述是这样的:f(x) = f(f(x))
,例如求绝对值函数。
在程序开发中,则是指同一个业务,执行一次或多次对业务状态的影响是一致的。例如:
- 根据id删除数据
- 查询数据
- 新增数据
但数据的更新往往不是幂等的,如果重复执行可能造成不一样的后果。比如:
- 取消订单,恢复库存的业务。如果多次恢复就会出现库存重复增加的情况
- 退款业务。重复退款对商家而言会有经济损失。
所以,我们要尽可能避免业务被重复执行。
然而在实际业务场景中,由于意外经常会出现业务被重复执行的情况,例如:
- 页面卡顿时频繁刷新导致表单重复提交
- 服务间调用的重试
- MQ消息的重复投递
我们在用户支付成功后会发送MQ消息到交易服务,修改订单状态为已支付,就可能出现消息重复投递的情况。如果消费者不做判断,很有可能导致消息被消费多次,出现业务故障。
举例:
- 假如用户刚刚支付完成,并且投递消息到交易服务,交易服务更改订单为已支付状态。
- 由于某种原因,例如网络故障导致生产者没有得到确认,隔了一段时间后重新投递给交易服务。
- 但是,在新投递的消息被消费之前,用户选择了退款,将订单状态改为了已退款状态。
- 退款完成后,新投递的消息才被消费,那么订单状态会被再次改为已支付。业务异常。
因此,我们必须想办法保证消息处理的幂等性。这里给出两种方案:
唯一消息ID方式
这个思路非常简单:
- 每一条消息都生成一个唯一的id,与消息一起投递给消费者。
- 消费者接收到消息后处理自己的业务,业务处理成功后将消息ID保存到数据库
- 如果下次又收到相同消息,去数据库查询判断是否存在,存在则为重复消息放弃处理。
我们该如何给消息添加唯一ID呢?
其实很简单,SpringAMQP
的MessageConverter
自带了MessageID
的功能,我们只要开启这个功能即可。
以Jackson
的消息转换器为例:
1 |
|
业务判断方式
业务判断就是基于业务本身的逻辑或状态来判断是否是重复的请求或消息,不同的业务场景判断的思路也不一样。
例如我们当前案例中,处理消息的业务逻辑是把订单状态从未支付修改为已支付。因此我们就可以在执行业务时判断订单状态是否是未支付,如果不是则证明订单已经被处理过,无需重复处理。
相比较而言,消息ID的方案需要改造原有的数据库,所以我更推荐使用业务判断的方案。
以支付修改订单的业务为例,我们需要修改OrderServiceImpl
中的markOrderPaySuccess
方法:
1 |
|
上述代码逻辑上符合了幂等判断的需求,但是由于判断和更新是两步动作,因此在极小概率下可能存在线程安全问题。
我们可以合并上述操作为这样:
1 |
|
注意看,上述代码等同于这样的SQL语句:
1 | UPDATE `order` SET status = ? , pay_time = ? WHERE id = ? AND status = 1 |
我们在where
条件中除了判断id以外,还加上了status
必须为1的条件。如果条件不符(说明订单已支付),则SQL
匹配不到数据,根本不会执行。
延迟消息
在电商的支付业务中,对于一些库存有限的商品,为了更好的用户体验,通常都会在用户下单时立刻扣减商品库存。例如电影院购票、高铁购票,下单后就会锁定座位资源,其他人无法重复购买。
但是这样就存在一个问题,假如用户下单后一直不付款,就会一直占有库存资源,导致其他客户无法正常交易,最终导致商户利益受损!
因此,电商中通常的做法就是:对于超过一定时间未支付的订单,应该立刻取消订单并释放占用的库存。
例如,订单支付超时时间为30分钟,则我们应该在用户下单后的第30分钟检查订单支付状态,如果发现未支付,应该立刻取消订单,释放库存。
但问题来了:如何才能准确的实现在下单后第30分钟去检查支付状态呢?
像这种在一段时间以后才执行的任务,我们称之为延迟任务,而要实现延迟任务,最简单的方案就是利用MQ的延迟消息了。
在RabbitMQ中实现延迟消息也有两种方案:
- 死信交换机+TTL
- 延迟消息插件
死信交换机和延迟消息
死信交换机
什么是死信?
当一个队列中的消息满足下列情况之一时,可以成为死信(dead letter
):
- 消费者使用
basic.reject
或basic.nack
声明消费失败,并且消息的requeue
参数设置为false
- 消息是一个过期消息,超时无人消费
- 要投递的队列消息满了,无法投递
如果一个队列中的消息已经成为死信,并且这个队列通过dead-letter-exchange
属性指定了一个交换机,那么队列中的死信就会投递到这个交换机中,而这个交换机就称为死信交换机(Dead Letter Exchange
)。而此时加入有队列与死信交换机绑定,则最终死信就会被投递到这个队列中。
死信交换机有什么作用呢?
延迟消息
前面两种作用场景可以看做是把死信交换机当做一种消息处理的最终兜底方案,与消费者重试时讲的RepublishMessageRecoverer
作用类似。
而最后一种场景,大家设想一下这样的场景:
如图,有一组绑定的交换机(ttl.fanout
)和队列(ttl.queue
)。但是ttl.queue
没有消费者监听,而是设定了死信交换机hmall.direct
,而队列direct.queue1
则与死信交换机绑定,RoutingKey
是blue
:
假如我们现在发送一条消息到ttl.fanout
,RoutingKey
为blue
,并设置消息的有效期为5000
毫秒:
注意:尽管这里的
ttl.fanout
不需要RoutingKey
,但是当消息变为死信并投递到死信交换机时,会沿用之前的RoutingKey
,这样hmall.direct
才能正确路由消息。
消息肯定会被投递到ttl.queue
之后,由于没有消费者,因此消息无人消费。5秒之后,消息的有效期到期,成为死信:
死信被再次投递到死信交换机hmall.direct
,并沿用之前的RoutingKey
,也就是blue
:
由于direct.queue1
与hmall.direct
绑定的key
是blue
,因此最终消息被成功路由到direct.queue1
,如果此时有消费者与direct.queue1
绑定, 也就能成功消费消息了。但此时已经是5秒钟以后了:
也就是说,publisher
发送了一条消息,但最终consumer
在5秒后才收到消息。我们成功实现了延迟消息。
总结
RabbitMQ的消息过期是基于追溯方式来实现的,也就是说当一个消息的TTL到期以后不一定会被移除或投递到死信交换机,而是在消息恰好处于队首时才会被处理。
当队列中消息堆积很多的时候,过期消息可能不会被按时处理,因此你设置的TTL时间不一定准确。
DelayExchange插件
基于死信队列虽然可以实现延迟消息,但是太麻烦了。因此RabbitMQ社区提供了一个延迟消息插件来实现相同的效果。
下载
插件下载地址:
GitHub - rabbitmq/rabbitmq-delayed-message-exchange: Delayed Messaging for RabbitMQ
由于我们安装的MQ是3.8版本,因此这里下载3.8.17版本:
安装
因为我们是基于Docker安装,所以需要先查看RabbitMQ的插件目录对应的数据卷。
1 | docker volume inspect mq-plugins |
结果如下:
1 | [ |
插件目录被挂载到了/var/lib/docker/volumes/mq-plugins/_data
这个目录,我们上传插件到该目录下。
接下来执行命令,安装插件:
1 | docker exec -it mq rabbitmq-plugins enable rabbitmq_delayed_message_exchange |
声明延迟交换机
基于注解方式:
1 |
|
基于@Bean
的方式:
1 | package com.itheima.consumer.config; |
发送延迟消息
发送消息时,必须通过x-delay
属性设定延迟时间:
1 |
|
注意:
延迟消息插件内部会维护一个本地数据库表,同时使用Elang Timers
功能实现计时。如果消息的延迟时间设置较长,可能会导致堆积的延迟消息非常多,会带来较大的CPU
开销,同时延迟消息的时间会存在误差。
因此,不建议设置延迟时间过长的延迟消息。
超时订单问题
接下来,我们就在交易服务中利用延迟消息实现订单超时取消功能。其大概思路如下:
假如订单超时支付时间为30分钟,理论上说我们应该在下单时发送一条延迟消息,延迟时间为30分钟。这样就可以在接收到消息时检验订单支付状态,关闭未支付订单。
定义常量
无论是消息发送还是接收都是在交易服务完成,因此我们在trade-service
中定义一个常量类,用于记录交换机、队列、RoutingKey
等常量:
内容如下:
1 | package com.hmall.trade.constants; |
配置MQ
在trade-service
模块的pom.xml
中引入amqp
的依赖:
1 | <!--amqp--> |
在trade-service
的application.yaml
中添加MQ的配置:
1 | spring: |
改造下单业务,发送延迟消息
接下来,我们改造下单业务,在下单完成后,发送延迟消息,查询支付状态。
修改trade-service
模块的com.hmall.trade.service.impl.OrderServiceImpl
类的createOrder
方法,添加消息发送的代码:
这里延迟消息的时间应该是15分钟,不过我们为了测试方便,改成10秒。
编写查询支付状态接口
由于MQ消息处理时需要查询支付状态,因此我们要在pay-service
模块定义一个这样的接口,并提供对应的FeignClient
。
首先,在hm-api
模块定义三个类:
说明:
PayOrderDTO
:支付单的数据传输实体PayClient
:支付系统的Feign
客户端PayClientFallback
:支付系统的fallback
逻辑
PayOrderDTO
代码如下:
1 | package com.hmall.api.dto; |
PayClient
代码如下:
1 | package com.hmall.api.client; |
PayClientFallback
代码如下:
1 | package com.hmall.api.client.fallback; |
最后,在pay-service
模块的PayController
中实现该接口:
1 |
|
监听消息,查询支付状态
接下来,我们在trader-service
编写一个监听器,监听延迟消息,查询订单支付状态:
代码如下:
1 | package com.hmall.trade.listener; |