早在之前就了解到了消息中间件,但是一直没有系统的学习,最近花了一段时间系统学习了当下最为主流的 RabbitMQ 消息队列,学习过程中也随时记录,刚开始学习的时候懵懵懂懂,做的笔记都比较杂乱,系统学习完后我将笔记内容不断反复修改,对章节进行设计调整,最终整合出了以下好理解、案例多、超详细的 RabbitMQ 学习笔记,希望能帮到大家~
参考的学习课程如下:
- 尚硅谷2021新版RabbitMQ教程丨快速掌握MQ消息中间件_哔哩哔哩_bilibili(强推!!!!)
- 【学相伴】RabbitMQ最新完整教程IDEA版通俗易懂 | KuangStudy | 狂神说 | 学相伴飞哥_哔哩哔哩_bilibili
目录
一、MQ相关的概念
RabbitMQ 是一种分布式消息中间件,消息中间件也称消息队列MQ,那么什么是MQ呢?我们这节来探讨一下。
1.1、MQ的基本概念
什么是MQ
MQ
(message queue),从字面意思上看就个 FIFO 先入先出的队列,只不过队列中存放的内容是 message 而已,它是一种具有接收数据、存储数据、发送数据等功能的技术服务。
在互联网架构中,MQ 是一种非常常见的上下游“逻辑解耦+物理解耦”的消息通信服务,用于上下游传递消息。使用了 MQ 之后,消息发送上游只需要依赖 MQ,不用依赖其他服务
为啥要用MQ
常见的MQ消息中间件有很多,例如
ActiveMQ
、
RabbitMQ
、
Kafka
、
RocketMQ
等等。那么为什么我们要使用它呢?因为它能很好的帮我解决一些复杂特殊的场景:
1️⃣ 高并发的流量削峰
举个例子,假设某订单系统每秒最多能处理一万次订单,也就是最多承受的10000qps,这个处理能力应付正常时段的下单时绰绰有余,正常时段我们下单一秒后就能返回结果。但是在高峰期,如果有两万次下单操作系统是处理不了的,只能限制订单超过一万后不允许用户下单。使用消息队列做缓冲,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后才能收到下单成功的操作,但是比不能下单的体验要好。
2️⃣ 应用解耦
以电商应用为例,应用中有订单系统、库存系统、物流系统、支付系统。用户创建订单后,如果耦合调用库存系统、物流系统、支付系统,任何一个子系统出了故障,都会造成下单操作异常。当转变成基于消息队列的方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复。在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可,中单用户感受不到物流系统的故障,提升系统的可用性。
3️⃣ 异步处理
有些服务间调用是异步的,例如 A 调用 B,B 需要花费很长时间执行,但是 A 需要知道 B 什么时候可以执行完,以前一般有两种方式,A 过一段时间去调用 B 的查询 api 查询。或者 A 提供一个 callback api, B 执行完之后调用 api 通知 A 服务。这两种方式都不是很优雅,使用消息队列,可以很方便解决这个问题,A 调用 B 服务后,只需要监听 B 处理完成的消息,当 B 处理完成后,会发送一条消息给 MQ,MQ 会将此消息转发给 A 服务。这样 A 服务既不用循环调用 B 的查询 api,也不用提供 callback api。同样B 服务也不用做这些操作。A 服务还能及时的得到异步处理成功的消息。
4️⃣ 分布式事务
以订单服务为例,传统的方式为单体应用,支付、修改订单状态、创建物流订单三个步骤集成在一个服务中,因此这三个步骤可以放在一个jdbc事务中,要么全成功,要么全失败。而在微服务的环境下,会将三个步骤拆分成三个服务,例如:支付服务,订单服务,物流服务。三者各司其职,相互之间进行服务间调用,但这会带来分布式事务的问题,因为三个步骤操作的不是同一个数据库,导致无法使用jdbc事务管理以达到一致性。而 MQ 能够很好的帮我们解决分布式事务的问题,有一个比较容易理解的方案,就是二次提交。基于MQ的特点,MQ作为二次提交的中间节点,负责存储请求数据,在失败的情况可以进行多次尝试,或者基于MQ中的队列数据进行回滚操作,是一个既能保证性能,又能保证业务一致性的方案,如下图所示:
5️⃣ 数据分发
MQ 具有发布订阅机制,不仅仅是简单的上游和下游一对一的关系,还有支持一对多或者广播的模式,并且都可以根据规则选择分发的对象。这样一份上游数据,众多下游系统中,可以根据规则选择是否接收这些数据,能达到很高的拓展性。
常用的MQ
1️⃣ ActiveMQ
优点
:单机吞吐量万级,时效性 ms 级,可用性高,基于主从架构实现高可用性,消息可靠性较低的概率丢失数据缺点
:官方社区现在对 ActiveMQ 5.x 维护越来越少,高吞吐量场景较少使用。
2️⃣ Kafka
大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开 Kafka,这款为大数据而生的消息中间件,以其百万级****TPS 的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输、存储的过程中发挥着举足轻重的作用。目前已经被 LinkedIn,Uber, Twitter, Netflix 等大公司所采纳。
优点
:性能卓越,吞吐量高,单机写入 TPS 约在百万条/秒,时效性 ms 级,可用性非常高;其次 kafka 是分布式的,一个数据多个副本,少数机器宕机,不会丢失数据导致服务不可用,消费者采用 Pull 方式获取消息,消息有序,通过控制能够保证所有消息被消费且仅被消费一次。此外 kafka 有优秀的第三方 Kafka Web 管理界面 Kafka-Manager,在日志领域比较成熟,被多家公司和多个开源项目使用;最后 kafka 在功能支持方便面它功能较为简单,主要支持简单的 MQ 功能,在大数据领域的实时计算以及日志采集被大规模使用。缺点
:Kafka 单机超过 64 个队列/分区,Load 会发生明显的飙高现象,队列越多,load 越高,发送消息响应时间变长,使用短轮询方式,实时性取决于轮询间隔时间,消费失败不支持重试;支持消息顺序,但是一台代理宕机后,就会产生消息乱序,社区更新较慢;选用场景
:Kafka 主要特点是基于Pull 的模式来处理消息消费,追求高吞吐量,一开始的目的就是用于日志收集和传输,适合产生大量数据的互联网服务的数据收集业务。大型公司建议可以选用,如果有日志采集功能,肯定是首选 kafka 了。
3️⃣ RocketMQ
RocketMQ 出自阿里巴巴的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进。被阿里巴巴广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理,binglog 分发等场景。
优点
:单机吞吐量十万级,可用性非常高,采用分布式架构,消息可以做到 0 丢失,MQ 功能较为完善,扩展性好,支持 10 亿级别的消息堆积,不会因为堆积导致性能下降,采用 java 语言实现。缺点
:支持的客户端语言不多,目前是 java 及 c++,其中 c++不成熟;社区活跃度一般,没有在MQ核心中去实现 JMS 等接口,有些系统要迁移需要修改大量代码。选用场景
:天生为金融互联网领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务削峰,在大量交易涌入时,后端可能无法及时处理的情况。RoketMQ 在稳定性上可能更值得信赖,这些业务场景在阿里双 11 已经经历了多次考验,如果你的业务有上述并发场景,建议可以选择 RocketMQ。
4️⃣ RabbitMQ
2007 年发布,是一个在AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。
优点
:由于 erlang 语言的高并发特性,性能较好;吞吐量到万级,MQ 功能比较完备、健壮、稳定、易用、跨平台、支持多种语言如Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP等,支持 AJAX 文档齐全;开源提供的管理界面非常棒,用起来很好用,社区活跃度高;更新频率相当高。缺点
:商业版需要收费,学习成本较高。选用场景
:结合 erlang 语言本身的并发优势,性能好时效性微秒级,社区活跃度也比较高,管理界面用起来十分方便,如果你的数据量没有那么大,中小型公司优先选择功能比较完备的 RabbitMQ。
1.2、消息队列协议
什么是协议
协议:是在TCP/IP协议基础之上构建的种约定成的规范和机制,目的是让客户端进行沟通和通讯。并且这种协议下规范必须具有
持久性
,
高可用
,
高可靠
的性能。
为什么不直接采用TCP/IP协议去传递消息?因为TCP/IP协议太过于简单,并不能承载消息的内容和载体,因此在此之上增加一些内容,给消息的传递分发高可用提供基础。
我们知道消息中间件负责数据的传递,存储,和分发消费三个部分,数据的存储和分发的过程中肯定要遵循某种约定成俗的规范,是采用底层的TCP/IP,UDP协议还是在这基础上自己构建等,而这些约定成俗的规范就称之为:协议。
所谓协议是指:
- 计算机底层操作系统和应用程序通讯时共同遵守的组约定,只有遵循共同的约定和规范,系统和底层操作系统之间才能相互交流。
- 和一般的网络应用程序的不同,它主要负责数据的接受和传递,所以性能比较的高。
- 协议对数据格式和计算机之间交换数据都必须严格遵守规范。
网络协议的三要素
- 语法:语法是用户数据与控制信息的结构与格式,以及数据出现的顺序。
- 语义:语义是解控制信息每个部分的意义。它规定了需要发出何种控制信息以及完成的动作与做出什么样的响应。
- 时序:时序是对事件发生顺序的详细说明。
# 类比http请求协议
1. 语法:htp规定了请求报文和响应报文的格式
2. 语义:客户端主动发起请求称之为请求。(这是一种定义,同时你发起的是post/get请求)
3. 时序:一个请求对应个响应。(定先有请求在有响应,这个是时序)
而消息中间件采用的并不是http协议,而常见的消息中间件协议有:
OpenWire
、
AMQP
、
MQTT
、
Kafka
、
OpenMessage
协议
面试题:为什么消息中间件不直接使用http协议呢?
- 因为http请求报文头和响应报文头是比较复杂的,包含了cookie、数据的加密解密、状态码、晌应码等附加的功能,但是对于个消息而言,我们并不需要这么复杂,也没有这个必要性,它其实就是负责数据传递,存储,分发就够,要追求的是高性能。尽量简洁,快速。
- 大部分情况下http大部分都是短链接,在实际的交互过程中,一个请求到响应很有可能会中断,中断以后就不会就行持久化,就会造成请求的丢失。这样就不利于消息中间件的业务场景,因为消息中间件可能是一个长期的获取消息的过程,出现问题和故障要对数据或消息就行持久化等,目的是为了保证消息和数据的高可靠和稳健的运行。
常用消息中间件协议
AMQP
协议(Advanced Message Queuing Protocol—高级消息队列协议)> 它由摩根大通集团联合其他公司共同设计。是一个提供统一消息服务的应用层标准高级消息队列协议,是应用层协议的一个开放标准,为面向消息的中间件设计。基于此协议的客户端与消息中间件可传递消息,并不受客户端/中间件不同产品,不同的开发语言等条件的限制。特性:分布式事务支、消息的持久化支持、高性能和高可靠的消息处理优势AMQP典型的实现者是RabbitMQ
、ACTIVEMQ
等,其中RabbitMQ
由Erlang
开发MQTT
协议(Message Queueing Telemetry Transport—消息队列遥测传输协议)> 它是一种基于发布/订阅(publish/subscribe)模式的"轻量级"通讯协议,该协议构建于TCP/IP协议上,由IBM在1999年发布。特点:轻量、结构简单、传输快、不支持事务、没有持久化设计应用场景:适用于计算能力有限、低带宽、网络不稳定的场景支持者:RabbitMQ
、ACTIVEMQ
(默认情况下关闭,需要打开)OpenMessage
协议> 是近几年由阿里、雅虎和滴滴出行、 Stremalio等公司共同参与创立的分布式消息中间件、流处理等领域的应用开发标准。特点:结构简单、解析速度快、支持事务和持久化设计Kafka
协议> 基于TCP/IP的二进制协议。消息内部是通过长度来分割,由些基本数据类型组成。特点:结构简单、解析速度快、无事务支持、有持久化设计
1.3、消息队列持久化
持久化简单来说就是将数据存入磁盘,而不是存在内存中随服务器重启断开而消失,使数据能够永久保存。
常见的持久化方式和对比:
ActiveMQRabbitMQKafkaRocketMQ文件存储支持支持支持支持数据库支持///
1.4、消息的分发策略
MQ消息队列有如下几个角色:
Producer
:消息生产者。负责产生和发送消息到 BrokerBroker
:消息处理中心。负责消息存储、确认、重试等,一般其中会包含多个 queueConsumer
:消息消费者。负责从 Broker 中获取消息,并进行相应处理
生产者产生消息后,MQ进行存储,消费者如何获得消息呢?
一般的获取方式无外乎外推(push)或者(pull)两种方式,典型的git就有推拉机制,我们发送的http请求就是一种典型的拉取数据库数据返回的过程。而消息队列MQ是一种推送过程,而这些推机制会适用到很多的业务场景,也有很多对应的推机制策略
场景分析一
比如我在APP上下了一个订单,我们的系统和服务很多,我们如何得知这个消息被那个系统或者那些服务或者系统进行消费,此时就需要一个消费策略,或称为消费的方法论。
场景分析二
在发送消息的过程中可能会出现异常,或者网络的抖动,故障等等因为造成消息的无法消费,比如用户在下订单,消费MQ接受,订单系统出现故障,导致用户支付失败,那么这个时候就需要消息中间件就必须支持消息重试机制策略。也就是支持:出现问题和故障的情况下,消息不丢失还可以进行重发
📄 消息分发策略的机制和对比
ActiveMQRabbitMQKafkaRocketMQ发布订阅支持支持支持支持轮询分发支持支持支持/公平分发/支持支持/重发支持支持/支持消息拉取/支持支持支持
1.5、消息队列的高可用和高可靠
所谓高可用:是指产品在规定的条件和规定的时刻或时间内处于可执行规定功能状态的能力。
当业务量增加时,请求也过大,一台消息中间件服务器的会触及硬件(CPU、内存、磁盘)的极限,一台消息服务器你已经无法满足业务的需求,所以消息中间件必须支持集群部署,来达到高可用的目的。
1️⃣ Master-slave主从共享数据的部署方式
将多个消息服务器Broker连接共享一块消息存储空间,其中Master节点负责消息的写入。客户端会将消息写入到Master节点,一旦Master挂掉,slave节点继续服务,从而形成高可用。
2️⃣ Master-slave主从同步部署方式
该模式写入消息同样在Master节点上,但是主结点会同步数据到slave节点形成副本,和zookeeper或者redis主从机制很类似。这样可以达到负载均衡的效果,如果消费者有多个,就可以到不同的节点进行消费,但是消息的拷贝和同步会占用很大的贷款和网络资源。在
rabbitMQ
中会有使用
3️⃣ 多主集群同步部署模式
和上述方式区别不大,但是该方式任意节点都可以进行写入。
4️⃣ 多主集群转发部署模式
如果插入的数据是
Broker1
,元数据信息会存储数据的相关描述和记录存放的位置(队列),它会对描述信息,也就是元数据进行同步;
如果消费者在
Broker2
中进行消费,发现自己没有对应的消息,就会在自己的元数据信息中去查询,如果查询到了直接返回。如果没有查询到就会将该消息的信息携带在请求中转发到其他节点去询问,直到找到所需的信息为止。
场景:比如买火车票或者黄牛买演唱会门票,比如第一个黄牛没有顾客说要买的演唱会门票,但是他会去联系其他的黄牛询问,如果有就返回
5️⃣ Master-slave与Breoker-cluster组合的方案
实现多主多从的热备机制来完成消息的高可用以及数据的热备机制,在生产规模达到定的阶段的时候,这种使用的频率比较高。
这些集群模式最终目的都是为保证:消息服务器不会挂掉,出现了故障依然可以抱着消息服务继续使用。反正终归三句话:
- 要么消息共享
- 要么消息同步
- 要么元数据兴享
二、RabbitMQ安装启动
关于RabbitMQ的安装我先前写过一篇超详细的安装教程:RabbitMQ超详细安装教程
三、RabbitMQ快速入门
3.1、RabbitMQ的概念
RabbitMQ 是一个消息中间件:它接受并转发消息。你可以把它当做一个快递站点,当你要发送一个包裹时,你把你的包裹放到快递站,快递员最终会把你的快递送到收件人那里,按照这种逻辑 RabbitMQ 是一个快递站,一个快递员帮你传递快件。RabbitMQ 与快递站的主要区别在于:它不处理快件而是接收,存储和转发消息数据。
3.2、AMQP协议
RabbitMQ是一种遵循
AMQP
协议的分布式消息中间件。
AMQP
全称 “Advanced Message Queuing Protocol”,高级消息队列协议。它是应用层协议的一个开发标准,为面向消息的中间件设计。
下图是采用 AMQP 协议的生产者和消费者建立和释放连接的流程图:
3.3、RabbitMQ架构组成
Broker
:就是 RabbitMQ 服务,用于接收和分发消息,接受客户端的连接,实现 AMQP 实体服务。Virtual host
:出于多租户和安全因素设计的,把 AMQP 的基本组件划分到一个虚拟的分组中,类似于网络中的 namespace 概念。当多个不同的用户使用同一个 RabbitMQ server 提供的服务时,可以划分出多个 vhost,每个用户在自己的 vhost 创建 exchange 或 queue 等。Connection
:连接,生产者/消费者与 Broker 之间的 TCP 网络连接。Channel
:网络信道,如果每一次访问 RabbitMQ 都建立一个 Connection,在消息量大的时候建立连接的开销将是巨大的,效率也较低。Channel 是在 connection 内部建立的逻辑连接,如果应用程序支持多线程,通常每个 thread 创建单独的 channel 进行通讯,AMQP method 包含了 channel id 帮助客户端和 message broker 识别 channel,所以 channel 之间是完全隔离的。Channel 作为轻量级的Connection极大减少了操作系统建立TCP connection****的开销。Message
:消息,服务与应用程序之间传送的数据,由Properties和body组成,Properties可是对消息进行修饰,比如消息的优先级,延迟等高级特性,Body则就是消息体的内容。Virtual Host
:虚拟节点,用于进行逻辑隔离,最上层的消息路由,一个虚拟主机理由可以有若干个Exhange和Queue,同一个虚拟主机里面不能有相同名字的ExchangeExchange
:交换机,是 message 到达 broker 的第一站,用于根据分发规则、匹配查询表中的 routing key,分发消息到 queue 中去,不具备消息存储的功能。常用的类型有:direct、topic、fanout。Bindings
:exchange 和 queue 之间的虚拟连接,binding 中可以包含 routing key,Binding 信息被保存到 exchange 中的查询表中,用于 message 的分发依据。Routing key
:是一个路由规则,虚拟机可以用它来确定如何路由一个特定消息Queue
:消息队列,保存消息并将它们转发给消费者进行消费。
3.4、四大核心概念
- 生产者:产生数据发送消息的程序是生产者。
- 交换机:交换机是 RabbitMQ 非常重要的一个部件,一方面它接收来自生产者的消息,另一方面它将消息推送到队列中。交换机必须确切知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推送到多个队列,亦或者是把消息丢弃,这个是由交换机类型决定的。
- 队列:队列是 RabbitMQ 内部使用的一种数据结构,尽管消息流经 RabbitMQ 和应用程序,但它们只能存储在队列中。队列仅受主机的内存和磁盘限制的约束,本质上是一个大的消息缓冲区。许多生产者可以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。
- 消费者:消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费者和消息中间件很多时候并不在同一机器上。同一个应用程序既可以是生产者又是可以是消费者。
3.5、RabbitMQ角色分类
none
:不能访问 management pluginmanagement
:查看自己相关节点信息- 列出自己可以通过AMQP登入的虚拟机- 查看自己的虚拟机节点virtual hosts的queues,exchanges和bindings信息- 查看和关闭自己的channels和connections- 查看有关自己的虚拟机节点virtual hosts的统计信息。包括其他用户在这个节点virtual hosts中的活动信息Policymaker
- 包含management所有权跟- 查看和创建和删除自己的virtual hosts所属的policies和parameters信息Monitoring
- 包含management所有权限- 罗列出所有的virtual hosts,包括不能登录的virtual hosts- 查看其他用户的connections和channels信息- 查看节点级别的数据如clustering和memory使用情况- 查看所有的virtual hosts的全局统计信息。Administrator
- 最高权限- 可以创建和删除 virtual hosts- 可以查看,创建和删除users- 查看创建permissions- 关闭所有用户的connections
3.6、RabbitMQ消息模式
官网:RabbitMQ Tutorials — RabbitMQ
RabbitMQ提供6种模式,分别是 Hello World、Work Queues、Publish/Subscribe、Routing、Topics、RPC。本文详细讲述了前5种,并给出代码实现和思路。其中 Publish/Subscribe、Routing、Topics 三种模式可以统一归为 Exchange 模式,只是创建时交换机的类型不一样,分别是 fanout、direct、topic 三种交换机类型。
注意:简单模式和工作模式虽然途中没有画出交换机,但是都会有一个默认的交换机,类型为
direct
简单模式
一个生产者,一个消费者,一个队列,采用默认交换机。可以理解为生产者P发送消息到队列Q,一个消费者C接收。
工作模式
一个生产者,多个消费者,一个队列,采用默认交换机。可以理解为生产者P发送消息到队列Q,可以由多个消费者C1、C2进行接收。
发布/订阅模式(fanout)
功能:一个生产者、一个 fanout 类型的交换机、多个队列、多个消费者。一个生产者发送的消息会被多个消费者获取。其中 fanout 类型就是发布订阅模式,只有订阅该生产者的消费者会收到消息。
接下来通过web界面的方式模拟发布订阅模式,首先新建一个
fanout
类型的交换机
然后声明两个队列
queue1
、
queue2
然后将队列与交换机进行绑定
然后我们向交换机中投递一条消息
然后在两个队列中都可以看到收到的消息
路由模式(direct)
功能:一个生产者,一个 direct 类型的交换机,多个队列,交换机与队列之间通过 routing-key 进行关联绑定,多个消费者。生产者发送消息到交换机并且要指定routing-key,然后消息根据这交换机与队列之间的 routing-key 绑定规则进行路由被指定消费者消费。
接下来通过web界面的方式模拟发布订阅模式,首先新建一个
direct
类型的交换机
然后声明两个队列 queue1、queue2 并绑定刚创建的交换机,设置两者绑定的 routing-key
然后我们往交换机中发送一条消息,指定一个 routing-key
可以看到只有对应 routing-key 的 queue2 收到了消息
主题模式(topic)
说明:一个生产者,一个 topic 类型的交换机,多个队列,交换机与队列之间通过 routing-key 进行关联绑定,多个消费者。生产者发送消息到交换机并且要指定 routing-key,然后消息根据这交换机与队列之间的 routing-key 绑定规则进行路由被指定消费者消费。与路由模式不同是 routing-key 有指定的队则,可以更加的通用,满足更过的场景。routing-key 的规则如下:
#
:匹配一个或者多个词,例如lazy.#
可以匹配 lazy.xxx 或者 lazy.xxx.xxx*
:只能匹配一个词,例如lazy.*
只能匹配 lazy.xxx
接下来通过web界面的方式模拟发布订阅模式,首先新建一个
topic
类型的交换机
然后绑定队列,设置路由key
然后我们向交换机中投递一条消息,指定一个路由key
可以看到只有满足路由key条件的queue1收到了消息
参数模式
作用:可以携带参数,根据参数进行过滤
下来通过web界面的方式模拟发布订阅模式,首先新建一个
headers
类型的交换机
然后绑定队列,设置相关参数
然后我们向交换机中投递一条消息,指定参数
可以看到只有满足参数x条件的queue1收到了消息
四、简单模式——Hello Word
RabbitMQ 中最简单的
Hello World
模式。也就是一个生产者、一个消费者、一个队列;生产者P发送消息到队列Q,一个消费者C接收消息。
接下来我们来用 Java 代码实现一下
Hello World
简单模式,首先创建一个空项目,然后添加一个 maven 模块
4.1、导入rabbitmq依赖
首先我们导入 RabbitMQ 的依赖,并且指定 JDK 的编译版本。
<!--指定 jdk 编译版本--><build><plugins><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-compiler-plugin</artifactId><configuration><source>8</source><target>8</target></configuration></plugin></plugins></build><dependencies><!--rabbitmq 依赖客户端--><dependency><groupId>com.rabbitmq</groupId><artifactId>amqp-client</artifactId><version>5.8.0</version></dependency><!--操作文件流的一个依赖--><dependency><groupId>commons-io</groupId><artifactId>commons-io</artifactId><version>2.6</version></dependency></dependencies>
4.2、编写消息生产者
步骤:
- 创建连接工厂 ConnectionFactory
- 通过连接工厂创建连接 Connection
- 通过连接获取通道 Channel
- 通过通道声明队列 Queue
- 发送消息到队列 Queue 中
packagemode1_Simple;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.Connection;importcom.rabbitmq.client.ConnectionFactory;publicclassProducer{// 队列名称publicstaticString QUEUE_NAME ="hello";publicstaticvoidmain(String[] args)throwsException{// 创建一个连接工厂ConnectionFactory factory =newConnectionFactory();
factory.setHost("82.156.9.173");
factory.setUsername("zsr");
factory.setPassword("123456");// 创建一个connectionConnection connection = factory.newConnection();// 创建一个channelChannel channel = connection.createChannel();/**
* 创建一个队列
* 1.队列名称
* 2.队列里面的消息是否持久化(默认为false,代表消息存储在内存中)
* 3.该队列是否只供一个消费者进行消费,是否进行共享(true表示可以多个消费者消费)
* 4.表示最后一个消费者断开连接以后,该队列是否自动删除(true表示自动删除)
* 5.其他参数
*/
channel.queueDeclare(QUEUE_NAME,false,false,false,null);/**
* 发送一个消息
* 1.发送到那个交换机(空代表默认交换机)
* 2.路由key
* 3.其他的参数信息
* 4.发送消息的消息体
*/String message ="hello";
channel.basicPublish("", QUEUE_NAME,null, message.getBytes());System.out.println("消息发送完毕");}}
4.3、编写消息消费者
步骤:
- 创建连接工厂 ConnectionFactory
- 通过连接工厂创建连接 Connection
- 通过连接获取通道 Channel
- 通过通道接收消息
packagemode1_Simple;importcom.rabbitmq.client.*;publicclassConsumer{// 队列名称publicstaticString QUEUE_NAME ="hello";publicstaticvoidmain(String[] args)throwsException{// 创建一个连接工厂ConnectionFactory factory =newConnectionFactory();
factory.setHost("82.156.9.173");
factory.setUsername("zsr");
factory.setPassword("123456");// 创建一个connectionConnection connection = factory.newConnection();// 创建一个channelChannel channel = connection.createChannel();/**
* 消费者消费消息
* 1.消费的队列名称
* 2.消费成功之后是否要自动应答(true代表自动应答,false代表手动应答)
* 3.消费者消费消息的回调(函数式接口)
* 4.消费者取消消费的回调(函数式接口)
*/// 消费消息的回调DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("成功消费消息,内容为:"+newString(message.getBody()));};// 取消消费的回调CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,true, deliverCallback, cancelCallback);}}
4.4、测试
运行程序,观察消息在rabbitmq-server服务中的过程
首先启动生产者,可以看到创建了一个队列
hello
,并发送了一条消息,还未被消费
然后再启动消费者,可以看到控制台打印收到的消息,同时可以看到消息已经被消费
此外,这里的
hello
队列是一个非持久化队列,所以如果
rabbitmq
服务重启,该队列会消失
4.5、代码优化—抽取工具类
上述消息生产者和消费者获取创建ConnectionFactory,获取Connection和Channel的过程是一样的,我们可以封装成一个工具类
RabbitMqUtils
。
packageutils;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.Connection;importcom.rabbitmq.client.ConnectionFactory;publicclassRabbitMqUtils{// 获得RabbitMQ连接的channelpublicstaticChannelgetChannel()throwsException{// 创建一个连接工厂ConnectionFactory factory =newConnectionFactory();
factory.setHost("82.156.9.173");
factory.setUsername("zsr");
factory.setPassword("123456");// 创建一个connectionConnection connection = factory.newConnection();// 创建一个channelChannel channel = connection.createChannel();return channel;}}
然后我们就可以优化一下消费者和生产者的代码:
消费者:
packagemode1_Simple;importcom.rabbitmq.client.*;publicclassConsumer{publicstaticString QUEUE_NAME ="hello";publicstaticvoidmain(String[] args)throwsException{Channel channel =utils.RabbitMqUtils.getChannel();/**
* 消费者消费消息
* 1.消费的队列名称
* 2.消费成功之后是否要自动应答(true代表自动应答,false代表手动应答)
* 3.消费者消费消息的回调(函数式接口)
* 4.消费者取消消费的回调(函数式接口)
*/// 消费消息的回调DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("消息成功消费!内容为:"+newString(message.getBody()));};// 取消消费的回调CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,true, deliverCallback, cancelCallback);}}
生产者:
packagemode1_Simple;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.Connection;importcom.rabbitmq.client.ConnectionFactory;publicclassProducer{publicstaticString QUEUE_NAME ="hello";publicstaticvoidmain(String[] args)throwsException{Channel channel =utils.RabbitMqUtils.getChannel();/**
* 创建一个队列
* 1.队列名称
* 2.队列里面的消息是否持久化(默认为false,代表消息存储在内存中)
* 3.该队列是否只供一个消费者进行消费,是否进行共享(true表示可以多个消费者消费)
* 4.表示最后一个消费者断开连接以后,该队列是否自动删除(true表示自动删除)
* 5.其他参数
*/
channel.queueDeclare(QUEUE_NAME,false,false,false,null);/**
* 发送一个消息
* 1.发送到那个交换机(空代表默认交换机)
* 2.路由key
* 3.其他的参数信息
* 4.发送消息的消息体
*/String message ="hello";
channel.basicPublish("", QUEUE_NAME,null, message.getBytes());System.out.println("消息发送完毕");}}
五、工作模式——Work Queues
Work Queues
是工作队列模式,也就是一个生产者、多个消费者、一个队列。
它的主要思想是避免排队等待,避免一个消息处理时间过久而无法处理下一个的问题。因此相比简单模式可以有多个消费者,原理就是我们把任务封装为消息并将其发送到队列中,这多个消费者可以一起处理队列中的任务。
RabbitMQ 中的工作模式默认采用轮训的方式,也就是如果有两个消费者的话,消息逐一分给每个消费者进行消费。接下来我们来用 Java 代码实现一下
Work Queues
工作模式,来测试其轮训消费的功能。
5.1、编写消息生产者
packagemode2_WorkQueues.polling;importcom.rabbitmq.client.Channel;importjava.util.Scanner;publicclassProducer{publicstaticString QUEUE_NAME ="work";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明队列
channel.queueDeclare(QUEUE_NAME,false,false,false,null);// 发送消息Scanner scanner =newScanner(System.in);while(scanner.hasNext()){String message = scanner.next();
channel.basicPublish("", QUEUE_NAME,null, message.getBytes());System.out.println("消息发送完毕"+ message);}}}
5.2、编写消息消费者
消费者1:
packagemode2_WorkQueues.polling;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 消费者1publicclassConsumer01{publicstaticString QUEUE_NAME ="work";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 消费消息DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("消息成功消费!内容为:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,true, deliverCallback, cancelCallback);}}
消费者2:
packagemode2_WorkQueues.polling;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 消费者2publicclassConsumer02{publicstaticString QUEUE_NAME ="work";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 消费消息DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("消息成功消费!内容为:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,true, deliverCallback, cancelCallback);}}
5.3、测试
首先分别启动两个消费者,然后启动生产者,这里发送4条消息:
根据结果可以看到,consumer01收到了1和3条消息,consumer01收到了2和4条消息:
也就是多个消费者是轮询消费生产者发送的消息。
六、RabbitMQ交换机
前面的两节中,我们通过演示了
Hello World
、
Work Queues
两种 RabbitMQ 的工作模式。接下来我们来看看剩下的三种模式:
Publish/Subscribe
、
Routing
、
Topics
,这三种模式可以统一归为 Exchange 模式,它们只是创建时交换机的类型不一样,分别是 fanout、direct、topic。
这节我们就来深入了解一下交换机 Exchange 以及它的几种工作模式。
6.1、Exchanges简介
RabbitMQ 消息传递模型的核心思想是:生产者生产的消息从不会直接发送到队列。实际上,通常生产者甚至都不知道这些消息传递传递到了哪些队列中。
相反,**生产者只能将消息发送到交换机(exchange)**,交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息。是应该把这些消息放到特定队列还是说把他们到许多队列中还是说应该丢弃它们。这就的由交换机的类型来决定。
Exchanges 的类型总共有四种:直接(direct)、主题(topic)、标题(headers)、扇出(fanout)
📦 无名exchange
在本文的前面部分我们对 exchange 一无所知,但仍然能够将消息发送到队列。这是因为我们使用的是默认交换机,我们通过空字符串(“”)进行标识。
📄 临时队列
上文所有例子中我们都使用的是具有特定名称的队列,队列的名称我们来说至关重要,用于指定消费者去消费哪个队列的消息。每当我们连接到 RabbitMQ 时都需要一个全新的空队列,但很多时候我们可能不想指定队列名字,只想实验测试一下,此时我们可以创建一个具有随机名称的队列,一旦我们断开了消费者的连接,该队列将被自动删除。这就是临时队列。
// 创建一个临时队列String queueName = channel.queueDeclare().getQueue();
创建出来之后长成这样:
🐼 绑定
我们提到,生产者发消息都是发给交换机,由交换机对消息进行路由到队列,那么交换机这么知道将消息发给哪个队列呢?这就是 routing-key 要做的事,它是 exchange 和 queue 之间的桥梁,告诉我们 exchange 和那个队列进行了绑定关系。比如说下面这张图告诉我们的就是 X 与 Q1 和 Q2 进行了绑定。
queueBind
方法中的第三个参数就是设定
routing-key
的值,用于设定交换机和队列的绑定关系。
6.2、Fanout模式——RabbitMQ发布订阅模式
Fanout 这种类型非常简单,它是将接收到的所有消息广播到它知道的所有队列中。RabbitMQ 系统中默认有一个 fanout 类型的交换机。
接下来我们来通过代码实战,来看看 fanout 交换机的实现效果,我们要实现的示意图如下所示:
有一个生产者,一个fanout模式的交换机绑定了两个临时队列,然后分别对应了两个消费者。
生产者:
packagemode2_WorkQueues.exchange;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.Channel;// 生产者publicclassProducer{publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare("logs",BuiltinExchangeType.FANOUT);// 发送10条消息for(int i =0; i <10; i++){String message = i +"";
channel.basicPublish("logs","",null, message.getBytes());System.out.println("消息发送完毕"+ message);}}}
消费者1:
packagemode2_WorkQueues.exchange;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 消费者1publicclassConsumer01{publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare("logs",BuiltinExchangeType.FANOUT);// 声明临时队列String queueName = channel.queueDeclare().getQueue();// 绑定队列与交换机
channel.queueBind(queueName,"logs","");// 消费消息DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("获得消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(queueName,true, deliverCallback, cancelCallback);}}
消费者2:
packagemode2_WorkQueues.exchange;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 消费者2publicclassConsumer02{publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare("logs",BuiltinExchangeType.FANOUT);// 声明临时队列String queueName = channel.queueDeclare().getQueue();// 绑定队列与交换机
channel.queueBind(queueName,"logs","");// 消费消息DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("获得消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(queueName,true, deliverCallback, cancelCallback);}}
然后运行测试,分别启动consumer01、consumer02,然后启动producer发送10条消息
根据终端打印结果可以看到consumer01和consumer02都收到了这10条消息,因此fanout类型的交换机就起到一个广播的作用。
6.3、Direct模式——RabbitMQ路由模式
上述 Fanout 这种交换类型并不能给我们带来很大的灵活性,它只能进行无意识的广播,在这里我们将使用 direct 类型来替换,direct 类型的工作方式是:消息只去到它绑定的 routingKey 队列中去。
举个简单的例子,在上面这张图中,我们可以看到交换机X为direct模式,绑定了两个队列,队列Q1绑定键为 orange,队列Q2绑定键有两个:一个绑定键为 black,另一个绑定键为 green。
在这种绑定情况下,生产者发布消息到 exchange 上,绑定键为 orange 的消息会被发布到队列Q1。绑定键为 blackgreen 和的消息会被发布到队列 Q2,其他消息类型的消息将被丢弃。
Fanout 模式本质就是 Direct 模式的一种特殊情况,如下图所示:如果 direct 类型的交换机绑定的多个队列的 routing-key 都相同,也就类似 fanout 模式,就跟广播差不多。
接下来我们通过一个实战来演示一下 Direct 模式的效果,示意图如下所示:
消费者1:
packagemode2_WorkQueues.exchange.direct;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 消费者1publicclassConsumer01{privatestaticfinalString QUEUE_NAME ="console";privatestaticfinalString EXCHANGE_NAME ="direct_logs";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare(EXCHANGE_NAME,BuiltinExchangeType.DIRECT);// 声明临时队列
channel.queueDeclare(QUEUE_NAME,false,false,false,null);// 绑定队列与交换机
channel.queueBind(QUEUE_NAME, EXCHANGE_NAME,"info");
channel.queueBind(QUEUE_NAME, EXCHANGE_NAME,"warning");// 消费消息DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("获得消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,true, deliverCallback, cancelCallback);}}
消费者2:
packagemode2_WorkQueues.exchange.direct;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 消费者2publicclassConsumer02{privatestaticfinalString QUEUE_NAME ="disk";privatestaticfinalString EXCHANGE_NAME ="direct_logs";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare(EXCHANGE_NAME,BuiltinExchangeType.DIRECT);// 声明临时队列
channel.queueDeclare(QUEUE_NAME,false,false,false,null);// 绑定队列与交换机
channel.queueBind(QUEUE_NAME, EXCHANGE_NAME,"error");// 消费消息DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("获得消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,true, deliverCallback, cancelCallback);}}
生产者:
packagemode2_WorkQueues.exchange.direct;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.Channel;importjava.util.HashMap;importjava.util.Map;// 生产者publicclassProducer{privatestaticfinalString EXCHANGE_NAME ="direct_logs";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare(EXCHANGE_NAME,BuiltinExchangeType.DIRECT);// 发送消息Map<String,String> messageMap =newHashMap<>();
messageMap.put("info","普通 info 信息");
messageMap.put("warning","警告 warning 信息");
messageMap.put("error","错误 error 信息");
messageMap.put("debug","调试 debug 信息");for(Map.Entry<String,String> mes : messageMap.entrySet()){String routingKey = mes.getKey();String message = mes.getValue();
channel.basicPublish(EXCHANGE_NAME, routingKey,null, message.getBytes());System.out.println("消息发送完毕"+ message);}}}
然后分别启动consumer01、consumer02、producer进行测试:
可以看到消费者根据指定的key收到了指定的消息:
6.4、Topics模式——RabbitMQ主题模式
尽管使用 direct 交换机改进了我们的系统,但是它仍然存在局限性。比方说我们想接收的日志类型有 error 和 warning 两种,但某个队列只想 error 的消息,那这个时候 direct 交换机就办不到了。这就引入了
topic
类型。
发送到类型是 topic 交换机的消息的 routing_key 不能随意写,必须满足一定的要求,它必须是一个单词列表,以点号分隔开。这些单词可以是任意单词,比如说:“stock.usd.nyse”、“nyse.vmw”、“quick.orange.rabbit” 这种类型的。当然这个单词列表最多不能超过 255 个字节。
在这个规则列表中,其中有两个替换符是大家需要注意的:
- 星号
*
可以代替一个单词 - 井号
#
可以替代零个或多个单词
此外,当队列绑定关系是下列情况时需要引起注意:
- 当一个队列绑定键是
#
,那么这个队列将接收所有数据,就有点像 fanout - 如果队列绑定键当中没有
#
和*
出现,那么该队列绑定类型就是 direct
📃 案例演示:如下图所示,我们首先分析该模式消息的路由结果,然后我们通过代码来验证一下结果是否正确
- Q1–>绑定的是:中间带 orange 带 3 个单词的字符串(.orange.)
- Q2–>绑定的是:最后一个单词是 rabbit 的 3 个单词(..rabbit),第一个单词是 lazy 的多个单词(lazy.#)
上图是一个队列绑定关系图,我们来看看他们之间数据接收情况是怎么样的:
quick.orange.rabbit 被队列 Q1Q2 接收到
lazy.orange.elephant 被队列 Q1Q2 接收到
quick.orange.fox 被队列 Q1 接收到
lazy.brown.fox 被队列 Q2 接收到
lazy.pink.rabbit 虽然满足两个绑定但只被队列 Q2 接收一次
quick.brown.fox 不匹配任何绑定不会被任何队列接收到会被丢弃
quick.orange.male.rabbit 是四个单词不匹配任何绑定会被丢弃
lazy.orange.male.rabbit 是四个单词但匹配 Q2
然后我们通过代码实现一下:
生产者Producer:
packagemode2_WorkQueues.exchange.topic;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.Channel;importjava.util.HashMap;importjava.util.Map;publicclassProducer{privatestaticfinalString EXCHANGE_NAME ="topic_logs";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare(EXCHANGE_NAME,BuiltinExchangeType.TOPIC);// 发送消息Map<String,String> messageMap =newHashMap<>();
messageMap.put("quick.orange.rabbit","被队列 Q1Q2 接收到");
messageMap.put("lazy.orange.elephant","被队列 Q1Q2 接收到");
messageMap.put("quick.orange.fox","被队列 Q1 接收到");
messageMap.put("lazy.brown.fox","被队列 Q2 接收到");
messageMap.put("lazy.pink.rabbit","虽然满足两个绑定但只被队列 Q2 接收一次");
messageMap.put("quick.brown.fox","不匹配任何绑定不会被任何队列接收到会被丢弃");
messageMap.put("quick.orange.male.rabbit","是四个单词不匹配任何绑定会被丢弃");
messageMap.put("lazy.orange.male.rabbit","是四个单词但匹配 Q2");for(Map.Entry<String,String> mes : messageMap.entrySet()){String message = mes.getValue();String routingKey = mes.getKey();
channel.basicPublish(EXCHANGE_NAME, routingKey,null, message.getBytes());System.out.println("消息发送完毕"+ message);}}}
消费者Consumer01:
packagemode2_WorkQueues.exchange.topic;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;publicclassConsumer01{privatestaticfinalString EXCHANGE_NAME ="topic_logs";privatestaticfinalString QUEUE_NAME ="Q1";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare(EXCHANGE_NAME,BuiltinExchangeType.TOPIC);// 创建Q1队列
channel.queueDeclare(QUEUE_NAME,false,false,false,null);// 绑定队列与交换机
channel.queueBind(QUEUE_NAME, EXCHANGE_NAME,"*.orange.*");// 消费消息DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("获得消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,true, deliverCallback, cancelCallback);}}
消费者Consumer02:
packagemode2_WorkQueues.exchange.topic;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;publicclassConsumer02{privatestaticfinalString EXCHANGE_NAME ="topic_logs";privatestaticfinalString QUEUE_NAME ="Q2";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明交换机
channel.exchangeDeclare(EXCHANGE_NAME,BuiltinExchangeType.TOPIC);// 创建Q1队列
channel.queueDeclare(QUEUE_NAME,false,false,false,null);// 绑定队列与交换机
channel.queueBind(QUEUE_NAME, EXCHANGE_NAME,"*.*.rabbit");
channel.queueBind(QUEUE_NAME, EXCHANGE_NAME,"lazy.#");// 消费消息DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("获得消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,true, deliverCallback, cancelCallback);}}
然后我们运行测试,当发送者发送我们指定当那些消息后:
我们来看两个消费者消费的消息,与我们上述假定的一致。
七、RabbitMQ的一些机制
7.1、消息应答
默认情况下,RabbitMQ 一旦向消费者发送了一条消息后,便立即将该消息标记为删除。由于消费者处理一个消息可能需要一段时间,假如在处理消息中途消费者挂掉了,我们会丢失其正在处理的消息以及后续发送给该消费这的消息。
为了保证消息在发送过程中不丢失,RabbitMQ 引入消息应答机制,消息应答意思就是:消费者在接收消息并且处理完该消息之后,才告知 RabbitMQ 可以把该消息删除了。
RabbitMQ 中消息应答方式有两种:自动应答(默认)、手动应答
RabbitMQ 中消息应答通过以下方法来实现:
// 肯定确认voidbasicAck(long deliveryTag,boolean multiple)// 否定确认voidbasicNack(long deliveryTag,boolean multiple,boolean requeue)voidbasicReject(long deliveryTag,boolean requeue)
其中:
deliveryTag
表示消息的标志,
multiple
表示是否为批量应答(ture 代表批量应答channel上未应答的消息,比如当前channel上有传送tag为5678的消息,如果应答时tag=8,则5~8的这些还未应答的消息都会被确认收到消息应答;如果为 false 则此时只会应答tag=8的消息,567的消息不会被应答)
自动应答
自动应答即消息发送后立即被认为已经传送成功,也就是RabbitMQ默认采用的消息应答方式。这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为该模式下如果消息在被接收之前,消费者的 connection 或者 channel 关闭,消息就丢失了。此外,由于消费者没有对传递的消息数量进行限制,发送方可以传递过载的消息,可能会造成消费者这边由于接收太多消息来不及处理,导致这些消息的积压,使得内存耗尽,最终使得这些消费者线程被操作系统杀死。
所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用。
手动应答
采用手动应答后的消息自动重新入队可以避免自动应答中消息丢失的情况。如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或 TCP 连接丢失),导致消息未发送 ACK 确认,RabbitMQ 将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。
我们来通过代码实现一下,只需要对上述 Work Queues 示例代码作出简单修改:
生产者:
packagemode2_WorkQueues.ack;importcom.rabbitmq.client.Channel;importjava.util.Scanner;publicclassProducer{publicstaticString QUEUE_NAME ="ack";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明队列
channel.queueDeclare(QUEUE_NAME,false,false,false,null);// 发送消息Scanner scanner =newScanner(System.in);while(scanner.hasNext()){String message = scanner.next();
channel.basicPublish("", QUEUE_NAME,null, message.getBytes());System.out.println("消息发送完毕"+ message);}}}
消费者1:其中消费消息的回调接口中我们模拟了接收消息的延迟为1s
packagemode2_WorkQueues.ack;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 测试手动应答publicclassConsumer01{publicstaticString QUEUE_NAME ="ack";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();System.out.println("consumer1收到消息时间较短");// 消费消息的回调DeliverCallback deliverCallback =(consumerTag, message)->{// 模拟接受消息的延迟 1stry{Thread.sleep(1000*1);}catch(InterruptedException e){
e.printStackTrace();}System.out.println("消息成功消费!内容为:"+newString(message.getBody()));// 手动应答:第一个参数表示消息标记tag、第二个参数false表示不进行批量应答
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);};// 取消消费的回调CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};// 消费消息(第2个参数修改为false表示手动应答)
channel.basicConsume(QUEUE_NAME,false, deliverCallback, cancelCallback);}}
消费者2:其中消费消息的回调接口中我们模拟了接收消息的延迟为10s
packagemode2_WorkQueues.ack;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 测试手动应答publicclassConsumer02{publicstaticString QUEUE_NAME ="ack";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();System.out.println("consumer2收到消息时间较长");// 消费消息的回调DeliverCallback deliverCallback =(consumerTag, message)->{// 模拟接受消息的延迟 10stry{Thread.sleep(1000*10);}catch(InterruptedException e){
e.printStackTrace();}System.out.println("消息成功消费!内容为:"+newString(message.getBody()));// 手动应答:第一个参数表示消息标记tag、第二个参数false表示不进行批量应答
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);};// 取消消费的回调CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};// 消费消息(第2个参数修改为false表示手动应答)
channel.basicConsume(QUEUE_NAME,false, deliverCallback, cancelCallback);}}
测试:首先启动生产者producer,然后启动两个消费者consumer01和consumer02。然后通过producer发送4条消息:
由于consumer01消费时间只有1s,因此可以立马看到consumer01根据轮询的规则收到了1、3条消息
按照默认的轮询机制,2、4条消息由consumer02来消费,10s后consumer2能正常收到。但此时如果我们停止Consumer02线程
过一会再看consumer01,可以看到它消费了2、4条消息
这就是手动应答的消息重新入队机制,我们避免了consumer02停机而造成原本分配给它消息的丢失问题。
7.2、持久化
前面我们通过手动应答处理了消息丢失的情况,但是如何保障当 RabbitMQ 服务停掉以后消息生产者发送过来的消息不丢失。默认情况下 RabbitMQ 退出或由于某种原因崩溃时,它会清空队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。
队列持久化
之前我们创建的队列都是非持久化的,RabbitMQ 如果重启,该队列就会被删除掉,如果要队列实现持久化就需要在声明队列的时候把
durable
参数设置为 true
需要注意的是如果之前声明的队列不是持久化的,需要把原先队列先删除,或者重新创建一个持久化的队列,不然就会错误:
以下为控制台中持久化与非持久化队列的 UI 显示区:
消息持久化
要想让消息实现持久化需要在消息生产者修改代码,添加
MessageProperties.PERSISTENT_TEXT_PLAIN
属性。
将消息标记为持久化并不能完全保证不会丢失消息。尽管它告诉 RabbitMQ 将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候 但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了。如果需要更强有力的持久化策略,参考后边课件发布确认章节。
7.3、不公平分发
前面我们了解到 RabbitMQ 默认分发消息采用的轮训分发模式,但是在某种场景下这种策略并不是很好,比方说有两个消费者在处理任务,其中 consumer01 处理任务的速度非常快,而 consumer02 处理速度却很慢,此时如果我们还是采用轮训分发的化就会使处理速度快的 consumer01 很大一部分时间处于空闲状态,而 consumer02 一直在干活,这种分配方式在这种情况下其实就不太好,但是 RabbitMQ 并不知道这种情况它依然很公平的进行分发。
为了避免这种情况,我们可以设置参数
channel.basicQos(1)
,意思就是每个消费者只能处理完当前消息才能接受新的消息。
设置之后示意图如下所示:
可以理解如果当前消息我没有处理完的话或者还没有应答的话,新的消息就先别分配给我,我目前只能处理一个消息,然后 RabbitMQ 就会把该任务分配给没有那么忙的那个空闲消费者,当然如果所有的消费者都没有完成手上任务,队列还在不停的添加新任务,队列有可能就会遇到队列被撑满的情况,这个时候就只能添加新的消费者 或者改变其他存储任务的策略。
7.4、预取值
本身消息的发送就是异步发送的,所以在任何时候,channel 上肯定不止只有一个消息另外来自消费者的手动确认本质上也是异步的。因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。
这个时候就可以通过使用 basic.qos 方法设置“
预取计数
”值来完成。该值定义通道上允许的未确认消息的最大数量。一旦数量达到配置的数量,RabbitMQ 将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认。假设在通道上有未确认的消息 5、6、7,8,并且通道的预取计数设置为 4,此时 RabbitMQ 将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被 ack。比方说 tag=6 的消息刚刚被确认 ACK,RabbitMQ 将会感知这个情况到并再发送一条消息。
消息应答和 QoS 预取值对用户吞吐量有重大影响。通常增加预取将提高向消费者传递消息的速度,虽然自动应答传输消息速率是最佳的,但是在这种情况下已传递但尚未处理的消息的数量也会增加,从而增加了消费者的RAM消耗。我们应该小心使用具有无限预处理的自动确认模式或采用手动确认模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程,不同的负载该值取值也不同 100 到 300 范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为 1 是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中。对于大多数应用来说,稍微高一点的值将是最佳的。
代码示例:编写两个消费者consumer01和consumer02,预取值分别为5和2。然后编写一个消费者发送7条消息
consumer01:预取值5,模拟接受消息延迟1s
packagemode2_WorkQueues.ack;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 测试手动应答publicclassConsumer01{publicstaticString QUEUE_NAME ="prefetch";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();System.out.println("consumer1收到消息时间较短");// 设置预取值5
channel.basicQos(5);// 消费消息(第2个参数修改为false表示手动应答)DeliverCallback deliverCallback =(consumerTag, message)->{// 模拟接受消息的延迟 10stry{Thread.sleep(1000*1);}catch(InterruptedException e){
e.printStackTrace();}System.out.println("消息成功消费!内容为:"+newString(message.getBody()));// 手动应答:第一个参数表示消息标记tag、第二个参数false表示不进行批量应答
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,false, deliverCallback, cancelCallback);}}
consumer02:预取值2,模拟接受消息延迟10s
packagemode2_WorkQueues.ack;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;// 测试手动应答publicclassConsumer02{publicstaticString QUEUE_NAME ="prefetch";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();System.out.println("consumer2收到消息时间较长");// 设置预取值2
channel.basicQos(2);// 消费消息(第2个参数修改为false表示手动应答)DeliverCallback deliverCallback =(consumerTag, message)->{// 模拟接受消息的延迟 1stry{Thread.sleep(1000*10);}catch(InterruptedException e){
e.printStackTrace();}System.out.println("消息成功消费!内容为:"+newString(message.getBody()));// 手动应答:第一个参数表示消息标记tag、第二个参数false表示不进行批量应答
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(QUEUE_NAME,false, deliverCallback, cancelCallback);}}
生产者:发送10条消息
packagemode2_WorkQueues.ack;importcom.rabbitmq.client.Channel;publicclassProducer{publicstaticString QUEUE_NAME ="prefetch";publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 发送消息
channel.queueDeclare(QUEUE_NAME,false,false,false,null);for(int i =0; i <10; i++){String message = i +"";
channel.basicPublish("", QUEUE_NAME,null, message.getBytes());System.out.println("消息发送完毕"+ message);}}}
启动消费者发送10条消息,前7条消息按照预取值的设定应该分给5条给consumer01,2条给consumer02
由于consumer01处理速度较快,consumer02处理较慢,所以consumer01处理完5条消息时consumer02还未处理第一条消息,因此后面的8、9、10条消息都会分配给consumer01进行消费。
对比以下结果,与我们设想的相同:
7.5、发布确认
生产者将信道设置成 confirm 模式,一旦信道进入 confirm 模式,所有在该信道上面发布的消息都将会被指派一个唯一的 ID(从 1 开始),一旦消息被投递到所有匹配的队列之后,broker 就会发送一个确认给生产者(包含消息的唯一ID),这就使得生产者知道消息已经正确到达目的队列了,如果消息和队列是可持久化的,那么确认消息会在将消息写入磁盘之后发出,broker 回传给生产者的确认消息中 delivery-tag 域包含了确认消息的序列号,此外 broker 也可以设置basic.ack 的multiple 域,表示到这个序列号之前的所有消息都已经得到了处理。
confirm 模式最大的好处在于他是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,如果 RabbitMQ 因为自身内部错误导致消息丢失,就会发送一条 nack 消息,生产者应用程序同样可以在回调方法中处理该 nack 消息。
发布确认默认是没有开启的,如果要开启需要调用方法 confirmSelect,每当你要想使用发布确认,都需要在 channel 上调用该方法
// 开启发布确认
channel.confirmSelect();
发布确认机制有三种策略:单个确认发布、批量确认发布、异步确认发布。其中前两者是同步确认的方式,也就是发布一个/一批消息之后只有被确认发布,后续的消息才能继续发布,后者是异步确认的方式,我们只管发布消息即可,消息是否被确认可以通过回调函数来接收到。
单个确认发布
这是一种简单的确认方式,它是一种同步确认发布的方式,也就是发布一个消息之后只有它被确认发布,后续的消息才能继续发布,waitForConfirmsOrDie(long)这个方法只有在消息被确认的时候才返回,如果在指定时间范围内这个消息没有被确认那么它将抛出异常。
这种确认方式有一个最大的缺点就是:发布速度特别的慢,因为如果没有确认发布的消息就会阻塞所有后续消息的发布,这种方式最多提供每秒不超过数百条发布消息的吞吐量。当然对于某些应用程序来说这可能已经足够了。
packagemode2_WorkQueues.confirm;importcom.rabbitmq.client.Channel;// 测试单个确认发布publicclassSingleProducer{publicstaticString QUEUE_NAME ="confirm";publicstaticint MESSAGE_COUNT =10;publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 开启发布确认
channel.confirmSelect();// 开始时间long begin =System.currentTimeMillis();// 批量发送10条消息
channel.queueDeclare(QUEUE_NAME,false,false,false,null);for(int i =0; i < MESSAGE_COUNT; i++){String message = i +"";
channel.basicPublish("", QUEUE_NAME,null, message.getBytes());// 单个消息发送完毕马上确认boolean flag = channel.waitForConfirms();// 服务端返回false或超时时间内未返回,生产者可以消息重发if(flag)System.out.println("消息"+ i +"发送成功");}// 结束时间long end =System.currentTimeMillis();System.out.println("发布"+ MESSAGE_COUNT +"条单独确认消息耗时:"+(end - begin)+"ms");}}
批量确认发布
上面那种方式非常慢,与单个等待确认消息相比,先发布一批消息然后一起确认可以极大地提高吞吐量,当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了,我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是同步的,也一样阻塞消息的发布。
packagemode2_WorkQueues.confirm;importcom.rabbitmq.client.Channel;// 测试单个确认发布publicclassBatchProducer{publicstaticString QUEUE_NAME ="confirm";publicstaticint MESSAGE_COUNT =10;publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 开启发布确认
channel.confirmSelect();// 确定批量大小int batchSize =5;// 未确认消息个数int noConfirmMesNum =0;// 开始时间long begin =System.currentTimeMillis();// 发送消息
channel.queueDeclare(QUEUE_NAME,false,false,false,null);for(int i =0; i < MESSAGE_COUNT; i++){String message = i +"";
channel.basicPublish("", QUEUE_NAME,null, message.getBytes());
noConfirmMesNum++;// 每5个一批发布确认if(noConfirmMesNum == batchSize){boolean flag = channel.waitForConfirms();if(flag)System.out.println("消息"+ i +"与之前的"+ batchSize +"条发送成功");
noConfirmMesNum =0;}}// 为了确保还有剩余没有确认消息 再次确认if(noConfirmMesNum >0)
channel.waitForConfirms();// 结束时间long end =System.currentTimeMillis();System.out.println("发布"+ MESSAGE_COUNT +"条批量确认消息耗时:"+(end - begin)+"ms");}}
异步确认发布
异步确认虽然编程逻辑比上两个要复杂,但是性价比最高,无论是可靠性还是效率都没得说,他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功,下面就让我们来详细讲解异步确认是怎么实现的。
代码中,我们把未确认的消息放到一个基于内存的能被发布线程访问的队列,比如说用 ConcurrentLinkedQueue 这个队列在 confirm callbacks 与发布线程之间进行消息的传递。
packagemode2_WorkQueues.confirm;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.ConfirmCallback;importjava.util.concurrent.ConcurrentNavigableMap;importjava.util.concurrent.ConcurrentSkipListMap;publicclassAsyncProducer{publicstaticString QUEUE_NAME ="confirm";publicstaticint MESSAGE_COUNT =10;publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 开启发布确认
channel.confirmSelect();// 开始时间long begin =System.currentTimeMillis();// 准备一个线程安全有序的哈希表,用于存放消息的序号以及内容ConcurrentSkipListMap<Long,String> concurrentSkipListMap =newConcurrentSkipListMap<>();// 消息确认成功回调函数(第一个参数表示消息标志,第二个参数表示是否为批量确认)ConfirmCallback ackCallback =(long deliveryTag,boolean multiple)->{// 删除掉已经确认的消息,剩下就是未确认的消息if(multiple){// 如果是批量 则批量删除ConcurrentNavigableMap<Long,String> confirmed = concurrentSkipListMap.headMap(deliveryTag);
confirmed.clear();}else concurrentSkipListMap.remove(deliveryTag);// 如果不是批量发送 则删除当前消息System.out.println("消息:"+ deliveryTag +"已确认发布");};// 消息确认失败回调函数(第一个参数表示消息标志,第二个参数表示是否为批量确认)ConfirmCallback nackCallback =(long deliveryTag,boolean multiple)->{String message = concurrentSkipListMap.get(deliveryTag);System.out.println("未确认的消息为:"+ message);};// 首先准备异步消息监听器,监听哪些消息成功了,哪些消息失败了
channel.addConfirmListener(ackCallback, nackCallback);// 异步通知// 发送消息for(int i =0; i < MESSAGE_COUNT; i++){String message ="消息"+ i;
channel.basicPublish("", QUEUE_NAME,null, message.getBytes());// 在此记录下所有要发送的消息
concurrentSkipListMap.put(channel.getNextPublishSeqNo(), message);}// 结束时间long end =System.currentTimeMillis();System.out.println("发布"+ MESSAGE_COUNT +"条异步确认消息耗时:"+(end - begin)+"ms");}}
对比
- 单独发布消息:同步等待确认,简单,但吞吐量非常有限。
- 批量发布消息:批量同步等待确认,简单,合理的吞吐量,一旦出现问题但很难推断出是那条消息出现了问题。
- 异步处理:最佳性能和资源使用,在出现错误的情况下可以很好地控制,但是实现起来稍微难些
7.6、死信队列
📄 死信队列的概念:
- 死信就是无法被消费的消息。一般来说,producer 将消息投递到 broker 或者直接到 queue 中,consumer 从 queue 取出消息进行消费,但某些时候由于特定的原因导致queue中的某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
应用场景:
- 为了保证订单业务的消息数据不丢失,需要使用到 RabbitMQ 的死信队列机制,当消息消费发生异常时,将消息投入死信队列中。
- 还有比如说: 用户在商城下单成功并点击去支付后在指定时间未支付时自动失效
死信的原因:
- 消息 TTL 过期
- 队列达到最大长度(队列满了无法再添加数据到 mq 中)
- 消息被拒绝(basic.reject 或 basic.nack)并且 requeue=false
我们接下来会通过代码模仿三种导致死信的效果:消息被拒绝、消息TTL过期、队列达到最大长度。架构图如下所示:
消息TTL 过期
生产者Producer:
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.AMQP;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.Channel;publicclassProducer{privatestaticfinalString NORMAL_EXCHANGE ="normal_exchange";// 普通交换机名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明普通交换机
channel.exchangeDeclare(NORMAL_EXCHANGE,BuiltinExchangeType.DIRECT);// 设置消息到TTL时间为10s=10000msAMQP.BasicProperties properties =newAMQP.BasicProperties().builder().expiration("10000").build();// 发送10条消息for(int i =0; i <10; i++){String message = i +"";
channel.basicPublish(NORMAL_EXCHANGE,"zhangsan", properties, message.getBytes());System.out.println("生产者发送消息:"+ message);}}}
消费者Consumer01:
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;importutils.RabbitMqUtils;importjava.util.HashMap;importjava.util.Map;publicclassConsumer01{privatestaticfinalString NORMAL_EXCHANGE ="normal_exchange";// 普通交换机名称privatestaticfinalString DEAD_EXCHANGE ="dead_exchange";// 死信交换机名称privatestaticfinalString NORMAL_QUEUE ="normal_queue";// 普通队列名称privatestaticfinalString DEAD_QUEUE ="dead_queue";// 死信队列名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =RabbitMqUtils.getChannel();// 声明普通和死信交换机(类型都为DIRECT)
channel.exchangeDeclare(NORMAL_EXCHANGE,BuiltinExchangeType.DIRECT);
channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT);// 声明普通和死信队列(普通队列需要传递参数设置死信交换机及其对应的路由key)Map<String,Object> arguments =newHashMap<>();
arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);// 设置死信交互机
arguments.put("x-dead-letter-routing-key","lisi");// 设置与死信交换机间的routing-key
channel.queueDeclare(NORMAL_QUEUE,false,false,false, arguments);
channel.queueDeclare(DEAD_QUEUE,false,false,false,null);// 绑定队列与交换机,设置其间的路由key
channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE,"zhangsan");
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE,"lisi");// 消费消息System.out.println("Consumer01等待接收普通队列到消息......");DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("Consumer01接收到普通队列的消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(NORMAL_QUEUE, deliverCallback, cancelCallback);}}
消费者Consumer02:
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;importutils.RabbitMqUtils;publicclassConsumer02{privatestaticfinalString DEAD_EXCHANGE ="dead_exchange";// 死信交换机名称privatestaticfinalString DEAD_QUEUE ="dead_queue";// 死信队列名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =RabbitMqUtils.getChannel();// 声明死信交换机(类型都为DIRECT)
channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT);// 声明死信队列
channel.queueDeclare(DEAD_QUEUE,false,false,false,null);// 绑定队列与交换机,设置其间的路由key
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE,"lisi");// 消费消息System.out.println("Consumer02等待接受死信队列的消息......");DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("Consumer02接收到死信队列的消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(DEAD_QUEUE, deliverCallback, cancelCallback);}}
我们接下来进行测试,首先启动 Consumer01 创建交换机和队列,然后关闭它,模拟其接受不到消息。然后启动消费者发送10条消息,可以看到发送到10条消息首先在 normal-queue 队列中,10s后消息过期,消息进去到 dead-queue 死信队列中。
最后我们启动 Consumer02,从死信队列中消费消息:
队列达到最大长度
首先修改 Producer 代码,去掉消息的TTL过期属性:
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.Channel;publicclassProducer{privatestaticfinalString NORMAL_EXCHANGE ="normal_exchange";// 普通交换机名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明普通交换机
channel.exchangeDeclare(NORMAL_EXCHANGE,BuiltinExchangeType.DIRECT);// 发送10条消息for(int i =0; i <10; i++){String message = i +"";
channel.basicPublish(NORMAL_EXCHANGE,"zhangsan", properties, message.getBytes());System.out.println("生产者发送消息:"+ message);}}}
然后修改 Consumer01,添加设置正常队列的长度限制为6:
注意此时需要把原先的 dead-queue 和 normal-queue 队列删除,因为参数改变了
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;importutils.RabbitMqUtils;importjava.util.HashMap;importjava.util.Map;publicclassConsumer01{privatestaticfinalString NORMAL_EXCHANGE ="normal_exchange";// 普通交换机名称privatestaticfinalString DEAD_EXCHANGE ="dead_exchange";// 死信交换机名称privatestaticfinalString NORMAL_QUEUE ="normal_queue";// 普通队列名称privatestaticfinalString DEAD_QUEUE ="dead_queue";// 死信队列名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =RabbitMqUtils.getChannel();// 声明普通和死信交换机(类型都为DIRECT)
channel.exchangeDeclare(NORMAL_EXCHANGE,BuiltinExchangeType.DIRECT);
channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT);// 声明普通和死信队列(普通队列需要传递参数设置死信交换机及其对应的路由key)Map<String,Object> arguments =newHashMap<>();
arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);// 设置死信交互机
arguments.put("x-dead-letter-routing-key","lisi");// 设置与死信交换机间的routing-key
arguments.put("x-max-length",6);// 设置正常队列长度为6
channel.queueDeclare(NORMAL_QUEUE,false,false,false, arguments);
channel.queueDeclare(DEAD_QUEUE,false,false,false,null);// 绑定队列与交换机,设置其间的路由key
channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE,"zhangsan");
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE,"lisi");// 消费消息System.out.println("Consumer01等待接收普通队列到消息......");DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("Consumer01接收到普通队列的消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(NORMAL_QUEUE, deliverCallback, cancelCallback);}}
Consumer02 代码不变:
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;importutils.RabbitMqUtils;publicclassConsumer02{privatestaticfinalString DEAD_EXCHANGE ="dead_exchange";// 死信交换机名称privatestaticfinalString DEAD_QUEUE ="dead_queue";// 死信队列名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =RabbitMqUtils.getChannel();// 声明死信交换机(类型都为DIRECT)
channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT);// 声明死信队列
channel.queueDeclare(DEAD_QUEUE,false,false,false,null);// 绑定队列与交换机,设置其间的路由key
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE,"lisi");// 消费消息System.out.println("Consumer02等待接受死信队列的消息......");DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("Consumer02接收到死信队列的消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(DEAD_QUEUE, deliverCallback, cancelCallback);}}
我们接下来进行测试,首先启动 Consumer01 创建更改后的队列,然后关闭它,模拟其接受不到消息。然后启动消费者发送10条消息,可以看到发送到6条消息首先在 normal-queue 队列中,4条消息在 dead-queue 死信队列中。
然后启动 Consumer02 可以消费到4条消息:
消息被拒
Producer 代码不变:
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.Channel;publicclassProducer{privatestaticfinalString NORMAL_EXCHANGE ="normal_exchange";// 普通交换机名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =utils.RabbitMqUtils.getChannel();// 声明普通交换机
channel.exchangeDeclare(NORMAL_EXCHANGE,BuiltinExchangeType.DIRECT);// 发送10条消息for(int i =0; i <10; i++){String message = i +"";
channel.basicPublish(NORMAL_EXCHANGE,"zhangsan",null, message.getBytes());System.out.println("生产者发送消息:"+ message);}}}
Consumer01 取出普通队列长度的限制,开启自动应答机制,并在发送消息的回调方法中拒收内容为"5"的消息,其他消息正常接收:
注意此时需要把原先的 dead-queue 和 normal-queue 队列删除,因为参数改变
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;importutils.RabbitMqUtils;importjava.util.HashMap;importjava.util.Map;publicclassConsumer01{privatestaticfinalString NORMAL_EXCHANGE ="normal_exchange";// 普通交换机名称privatestaticfinalString DEAD_EXCHANGE ="dead_exchange";// 死信交换机名称privatestaticfinalString NORMAL_QUEUE ="normal_queue";// 普通队列名称privatestaticfinalString DEAD_QUEUE ="dead_queue";// 死信队列名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =RabbitMqUtils.getChannel();// 声明普通和死信交换机(类型都为DIRECT)
channel.exchangeDeclare(NORMAL_EXCHANGE,BuiltinExchangeType.DIRECT);
channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT);// 声明普通和死信队列(普通队列需要传递参数设置死信交换机及其对应的路由key)Map<String,Object> arguments =newHashMap<>();
arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);// 设置死信交互机
arguments.put("x-dead-letter-routing-key","lisi");// 设置与死信交换机间的routing-key
channel.queueDeclare(NORMAL_QUEUE,false,false,false, arguments);
channel.queueDeclare(DEAD_QUEUE,false,false,false,null);// 绑定队列与交换机,设置其间的路由key
channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE,"zhangsan");
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE,"lisi");// 消费消息System.out.println("Consumer01等待接收普通队列到消息......");DeliverCallback deliverCallback =(consumerTag, message)->{String mes =newString(message.getBody(),"UTF-8");if(mes.equals("5")){System.out.println("Consumer01接收到普通队列的消息"+ mes +"并拒收该消息");// 第二个参数requeue设置为false,代表拒绝重新入队,也就是该队列如果配置了死信交换机将发送到死信队列中
channel.basicReject(message.getEnvelope().getDeliveryTag(),false);}else{System.out.println("Consumer01接收到普通队列的消息:"+newString(message.getBody()));
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);}};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};// 开启手动应答boolean autoAck =false;
channel.basicConsume(NORMAL_QUEUE, autoAck, deliverCallback, cancelCallback);}}
Consumer02 代码不变:
packagemode2_WorkQueues.dead;importcom.rabbitmq.client.BuiltinExchangeType;importcom.rabbitmq.client.CancelCallback;importcom.rabbitmq.client.Channel;importcom.rabbitmq.client.DeliverCallback;importutils.RabbitMqUtils;publicclassConsumer02{privatestaticfinalString DEAD_EXCHANGE ="dead_exchange";// 死信交换机名称privatestaticfinalString DEAD_QUEUE ="dead_queue";// 死信队列名称publicstaticvoidmain(String[] args)throwsException{// 创建channelChannel channel =RabbitMqUtils.getChannel();// 声明死信交换机(类型都为DIRECT)
channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT);// 声明死信队列
channel.queueDeclare(DEAD_QUEUE,false,false,false,null);// 绑定队列与交换机,设置其间的路由key
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE,"lisi");// 消费消息System.out.println("Consumer02等待接受死信队列的消息......");DeliverCallback deliverCallback =(consumerTag, message)->{System.out.println("Consumer02接收到死信队列的消息:"+newString(message.getBody()));};CancelCallback cancelCallback =(consumerTag)->{System.out.println("消息消费被中断");};
channel.basicConsume(DEAD_QUEUE, deliverCallback, cancelCallback);}}
我们接下来进行测试,首先启动 Consumer01,然后启动 Consumer02,最后启动 Producer。
根据结果可以看到,Consumer01 拒绝了消息5,消息5进入死信队列被 Consumer02 消费。
7.7、延迟队列
概念
延时队列,队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单来说,延时队列就是用来存放需要在指定时间被处理的元素的队列。
使用场景
- 订单在十分钟之内未支付则自动取消。
- 新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
- 用户注册成功后,如果三天内没有登陆则进行短信提醒。
- 用户发起退款,如果三天内没有得到处理则通知相关运营人员。
- 预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议。
这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,如:发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则进行自动结算”这样的需求,如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭“,短期内未支付的订单数据可能会有很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大压力,无法满足业务要求而且性能低下。
RabbitMQ 中的 TTL
TTL 是什么呢?TTL 是 RabbitMQ 中一个消息或者队列的属性,表明一条消息或者该队列中的所有消息的最大存活时间,单位是毫秒。换句话说,如果一条消息设置了 TTL 属性或者进入了设置TTL 属性的队列,那么这条消息如果在TTL 设置的时间内没有被消费,则会成为"死信"。如果同时配置了队列的TTL 和消息的TTL,那么较小的那个值将会被使用,有两种方式设置 TTL:
1️⃣ 消息设置TTL
便是针对每条消息设置TTL
2️⃣ 队列设置TTL
创建队列的时候设置队列的“x-message-ttl”属性
如果设置了队列的 TTL 属性,那么一旦消息过期,就会被队列丢弃(如果配置了死信队列被丢到死信队列中)。而如果仅设置消息的 TTL 属性,即使消息过期,也不一定会被马上丢弃,因为消息是否过期是在即将投递到消费者之前判定的,如果当前队列有严重的消息积压情况,则已过期的消息也许还能存活较长时间;
还需要注意的一点是,如果不设置 TTL,表示消息永远不会过期,如果将 TTL 设置为 0,则表示除非此时可以直接投递该消息到消费者,否则该消息将会被丢弃。
前一小节我们介绍了死信队列,刚刚又介绍了 TTL,至此利用 RabbitMQ 实现延时队列的两大要素已经集齐,接下来只需要将它们进行融合,再加入一点点调味料,延时队列就可以新鲜出炉了。想想看,延时队列,不就是想要消息延迟多久被处理吗,TTL 则刚好能让消息在延迟多久之后成为死信,另一方面,成为死信的消息都会被投递到死信队列里,这样只需要消费者一直消费死信队列里的消息就完事了,因为里面的消息都是希望被立即处理的消息。
SpringBoot整合RabbitMQ实现延迟队列
环境搭建
这里在根目录下新建一个springboot的module
然后导入依赖:
<dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter</artifactId></dependency><!--RabbitMQ 依赖--><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-amqp</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency><dependency><groupId>com.alibaba</groupId><artifactId>fastjson</artifactId><version>1.2.47</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></dependency><!--swagger--><dependency><groupId>io.springfox</groupId><artifactId>springfox-swagger2</artifactId><version>2.9.2</version></dependency><dependency><groupId>io.springfox</groupId><artifactId>springfox-swagger-ui</artifactId><version>2.9.2</version></dependency><!--RabbitMQ 测试依赖--><dependency><groupId>org.springframework.amqp</groupId><artifactId>spring-rabbit-test</artifactId><scope>test</scope></dependency></dependencies>
然后修改
src/main/resources/application.properties
,添加 RabbitMQ 的配置,注意其中的host、username、password更改为自己的配置信息:
spring.rabbitmq.host=82.156.9.173
spring.rabbitmq.port=5672
spring.rabbitmq.username=zsr
spring.rabbitmq.password=123456
通过设置队列TTL+死信实现消息延迟
1️⃣ 编写初始化类
代码架构图如下所示,其中有两个direct类型的交换机
X
、
Y
,其中Y为死信交换机;还有三个队列
QA
、
QB
、
QD
,QA和QB为普通队列,其中QA中消息的ttl为10s,QB中消息的ttl为40s,QD为死信队列。队列与交换机之间的routing-key如图中连线上标注所示:
我们接下来编写一个类用于初始化其中所有的交换机和队列,在springboot主启动类同级目录下新建
init
包,然后在其中新建
QueueTTLDelay.java
类
packagecom.zsr.springbootrabbitmq.init;importorg.springframework.amqp.core.*;importorg.springframework.beans.factory.annotation.Qualifier;importorg.springframework.context.annotation.Bean;importorg.springframework.context.annotation.Configuration;importjava.util.HashMap;importjava.util.Map;@ConfigurationpublicclassQueueTTLDelay{publicstaticfinalString X_EXCHANGE ="X";publicstaticfinalString QUEUE_A ="QA";publicstaticfinalString QUEUE_B ="QB";publicstaticfinalString Y_DEAD_LETTER_EXCHANGE ="Y";publicstaticfinalString DEAD_LETTER_QUEUE ="QD";// 声明交换机X@Bean("xExchange")publicDirectExchangexExchange(){returnnewDirectExchange(X_EXCHANGE);}// 声明死信交换机Y@Bean("yExchange")publicDirectExchangeyExchange(){returnnewDirectExchange(Y_DEAD_LETTER_EXCHANGE);}// 声明队列QA,设置队列的ttl为10s并绑定死信交换机@Bean("queueA")publicQueuequeueA(){Map<String,Object> arguments =newHashMap<>();// 声明当前队列绑定的死信交换机
arguments.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);// 声明当前队列的死信routing-key
arguments.put("x-dead-letter-routing-key","YD");// 声明队列的 TTL
arguments.put("x-message-ttl",10000);returnQueueBuilder.durable(QUEUE_A).withArguments(arguments).build();}// 声明队列QB,设置队列的ttl为40s并绑定死信交换机@Bean("queueB")publicQueuequeueB(){Map<String,Object> arguments =newHashMap<>();// 声明当前队列绑定的死信交换机
arguments.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);// 声明当前队列的死信routing-key
arguments.put("x-dead-letter-routing-key","YD");// 声明队列的 TTL
arguments.put("x-message-ttl",40000);returnQueueBuilder.durable(QUEUE_B).withArguments(arguments).build();}// 声明死信队列QD@Bean("queueD")publicQueuequeueD(){returnnewQueue(DEAD_LETTER_QUEUE);}// 死信队列QD绑定死信交换机Y@BeanpublicBindingdeadLetterBindingQAD(@Qualifier("queueD")Queue queueD,@Qualifier("yExchange")DirectExchange yExchange){returnBindingBuilder.bind(queueD).to(yExchange).with("YD");}// 队列A绑定X交换机@BeanpublicBindingqueueABindExchangeX(@Qualifier("queueA")Queue queueA,@Qualifier("xExchange")DirectExchange xExchange){returnBindingBuilder.bind(queueA).to(xExchange).with("XA");}// 队列B绑定X交换机@BeanpublicBindingqueueBBindExchangeX(@Qualifier("queueB")Queue queueB,@Qualifier("xExchange")DirectExchange xExchange){returnBindingBuilder.bind(queueB).to(xExchange).with("XB");}}
2️⃣ 编写消息生产者
在springboot主启动类同级目录下新建
producer
包,然后在其中新建
SendMessageController.java
类用于发送消息
packagecom.zsr.springbootrabbitmq.Producer;importlombok.extern.slf4j.Slf4j;importorg.springframework.amqp.rabbit.core.RabbitTemplate;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.web.bind.annotation.GetMapping;importorg.springframework.web.bind.annotation.PathVariable;importorg.springframework.web.bind.annotation.RestController;importjava.util.Date;@RestController@Slf4jpublicclassSendMessageController{@AutowiredprivateRabbitTemplate rabbitTemplate;@GetMapping("sendMsg/{message}")publicvoidsendMsg(@PathVariableString message){
log.info("当前时间:{},发送一条信息给两个TTL队列:{}",newDate(), message);
rabbitTemplate.convertAndSend("X","XA","消息来自ttl=10s的队列"+ message);
rabbitTemplate.convertAndSend("X","XB","消息来自ttl=40s的队列"+ message);}}
3️⃣ 编写消息消费者
在springboot主启动类同级目录下新建
Consumer
包,然后在其中新建
MessageConsumer.java
类用于接收消息
packagecom.zsr.springbootrabbitmq.consumer;importcom.rabbitmq.client.Channel;importlombok.extern.slf4j.Slf4j;importorg.springframework.amqp.core.Message;importorg.springframework.amqp.rabbit.annotation.RabbitListener;importorg.springframework.stereotype.Component;importjava.io.IOException;importjava.util.Date;@Slf4j@ComponentpublicclassMessageConsumer{@RabbitListener(queues ="QD")publicvoidreceiveD(Message message,Channel channel)throwsIOException{String msg =newString(message.getBody());
log.info("当前时间:{},收到死信队列信息{}",newDate().toString(), msg);}}
4️⃣ 运行测试
启动springboot主启动类,然后访问 http://localhost:8080/sendMsg/hello 发送hello消息,观察控制台日志信息,可以看到10s和40s后消费者从死信队列中消费到了hello消息,也就达到了延时队列的效果。
2021-11-29 21:14:45.943 INFO 6726 --- [nio-9090-exec-1] c.z.s.Producer.SendMessageController : 当前时间:Mon Nov 2921:14:45 CST 2021,发送一条信息给两个TTL队列:hello
2021-11-29 21:14:56.018 INFO 6726 --- [ntContainer#0-1] c.z.s.Consumer.DeadLetterQueueConsumer : 当前时间:Mon Nov 29 21:14:56 CST 2021,收到死信队列信息消息来自ttl=10s的队列hello2021-11-29 21:15:26.009 INFO 6726 --- [ntContainer#0-1] c.z.s.Consumer.DeadLetterQueueConsumer : 当前时间:Mon Nov 29 21:15:26 CST 2021,收到死信队列信息消息来自ttl=40s的队列hello
通过设置消息TTL+死信实现消息延迟
以上延时队列的实现目前只有 10S 和 40S 两个时间选项,如果需要一个小时后处理,那么就需要增加TTL为一个小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?
因此我们需要做出一些优化,在这里新增了一个队列 QC,绑定关系如下,该队列不设置 TTL 时间,我们通过指定消息的 TTL 来实现消息的延迟
首先在
init
包下新建一个
MessageTTLDelay.java
用来初始化QC队列,与死信交换机Y进行绑定:
packagecom.zsr.springbootrabbitmq.init;importorg.springframework.amqp.core.*;importorg.springframework.beans.factory.annotation.Qualifier;importorg.springframework.context.annotation.Bean;importorg.springframework.context.annotation.Configuration;importjava.util.HashMap;importjava.util.Map;@ConfigurationpublicclassMessageTTLDelay{publicstaticfinalString Y_DEAD_LETTER_EXCHANGE ="Y";publicstaticfinalString QUEUE_C ="QC";// 声明队列C,绑定死信交换机@Bean("queueC")publicQueuequeueB(){Map<String,Object> args =newHashMap<>(3);// 声明当前队列绑定的死信交换机
args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);// 声明当前队列的死信路由 key
args.put("x-dead-letter-routing-key","YD");// 没有声明TTL属性returnQueueBuilder.durable(QUEUE_C).withArguments(args).build();}// 绑定队列B和X交换机@BeanpublicBindingqueueCBindingX(@Qualifier("queueC")Queue queueC,@Qualifier("xExchange")DirectExchange xExchange){returnBindingBuilder.bind(queueC).to(xExchange).with("XC");}}
然后在
SendMessageController.java
中新增一个方法用于发送指定延时时间的消息
@GetMapping("sendExpirationMsg/{message}/{ttlTime}")publicvoidsendMsg(@PathVariableString message,@PathVariableString ttlTime){
rabbitTemplate.convertAndSend("X","XC", message, correlationData ->{
correlationData.getMessageProperties().setExpiration(ttlTime);return correlationData;});
log.info("当前时间:{},发送一条时长{}毫秒TTL信息给队列C:{}",newDate(), ttlTime, message);}
然后我们启动springboot主启动类进行测试,分别访问以下两个url
- http://localhost:9090/sendExpirationMsg/你好1/10000(延迟10s)
- http://localhost:9090/sendExpirationMsg/你好2/20000(延迟20s)
观察控制台日志输出,可以看到10s和20s后在死信队列中分别收到消息1和消息2
看起来似乎没什么问题,但是在最开始的时候,就介绍过如果使用在消息属性上设置 TTL 的方式,消息可能并不会按时“死亡“,因为 RabbitMQ 只会检查第一个消息是否过期,如果过期则丢到死信队列,如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行。
我们来进行演示,如果我们请求以下两个url:
- http://localhost:9090/sendExpirationMsg/你好3/10000(延迟10s)
- http://localhost:9090/sendExpirationMsg/你好4/2000(延迟2s)
再查看结果,可以发现出现了问题,你好4明明只需要2s,但却等了20s,因为延迟队列是排队的,先来后到,只有先前的处理完,才会处理下一条消息
通过RabbitmQ插件实现延迟队列
上文中提到的问题,确实是一个问题,如果不能实现在消息粒度上的 TTL,并使其在设置的TTL 时间及时死亡,就无法设计成一个通用的延时队列。那如何解决呢,我们可以通过 Rabbitmq 自带的延时队列插件解决这个问题。
1️⃣ 下载延迟队列插件
下载
rabbitmq_delayed_message_exchange
插件,然后解压放置到 RabbitMQ 的插件目录。
下载地址:https://www.rabbitmq.com/community-plugins.html
点击 Releases 然后选择想要下载的版本进行下载
下载完成后上传到服务器中:
scp rabbitmq_delayed_message_exchange-3.9.0.ez [email protected]:/
然后我们进入到服务器终端,将刚上传的文件移动到 RabbitMQ 的安装目录下的 plgins 目录下,再执行下面命令让该插件生效,最后重启 RabbitMQ
# 1.将插件移动到RabbitMQ的插件plugins目录cp rabbitmq_delayed_message_exchange-3.9.0.ez /usr/lib/rabbitmq/lib/rabbitmq_server-3.8.14/plugins/
# 2.使rabbitmq_delayed_message_exchange插件生效
rabbitmq-plugins enable rabbitmq_delayed_message_exchange
# 3.重启rabbitMQ
systemctl restart rabbitmq-server
安装完成后,可以在web界面看到新建交换机时多了一种延迟交换机x-delayed-message:
2️⃣ 编写初始化类
代码架构图如下所示,只需要一个延迟交换机路由到一个队列即可,也就是在交换机这里进行延迟,接下来我们编写一个类初始化其中的队列与交换机
在init包下新建
PluginsDelay.java
packagecom.zsr.springbootrabbitmq.init;importorg.springframework.amqp.core.Binding;importorg.springframework.amqp.core.BindingBuilder;importorg.springframework.amqp.core.CustomExchange;importorg.springframework.amqp.core.Queue;importorg.springframework.beans.factory.annotation.Qualifier;importorg.springframework.context.annotation.Bean;importorg.springframework.context.annotation.Configuration;importjava.util.HashMap;importjava.util.Map;@ConfigurationpublicclassPluginsDelay{publicstaticfinalString DELAYED_QUEUE_NAME ="delayed.queue";publicstaticfinalString DELAYED_EXCHANGE_NAME ="delayed.exchange";publicstaticfinalString DELAYED_ROUTING_KEY ="delayed.routingkey";// 声明延迟队列@BeanpublicQueuedelayedQueue(){returnnewQueue(DELAYED_QUEUE_NAME);}// 自定义交换机(这里定义的是一个延迟交换机)@BeanpublicCustomExchangedelayedExchange(){Map<String,Object> args =newHashMap<>();
args.put("x-delayed-type","direct");// 自定义交换机的类型returnnewCustomExchange(DELAYED_EXCHANGE_NAME,"x-delayed-message",true,false, args);}// 绑定延迟队列与延迟交换机@BeanpublicBindingbindingDelayedQueue(@Qualifier("delayedQueue")Queue queue,@Qualifier("delayedExchange")CustomExchange delayedExchange){returnBindingBuilder.bind(queue).to(delayedExchange).with(DELAYED_ROUTING_KEY).noargs();}}
在我们自定义的交换机中,这是一种新的交换类型,该类型消息支持延迟投递机制 消息传递后并不会立即投递到目标队列中,而是存储在 mnesia(一个分布式数据系统)表中,当达到投递时间时,才投递到目标队列中。
3️⃣ 编写消息生产者
在
SendMessageController.java
中新增以下代码
@GetMapping("sendDelayMsg/{message}/{delayTime}")publicvoidsendMsg(@PathVariableString message,@PathVariableInteger delayTime){
rabbitTemplate.convertAndSend(PluginsDelay.DELAYED_EXCHANGE_NAME,PluginsDelay.DELAYED_ROUTING_KEY, message, correlationData ->{
correlationData.getMessageProperties().setDelay(delayTime);return correlationData;});
log.info("当前时间:{},发送一条延迟{}毫秒的信息给队列delayed.queue:{}",newDate(), delayTime, message);}
4️⃣ 编写消息消费者
在
MessageConsumer.java
中添加以下代码:
@RabbitListener(queues =PluginsDelay.DELAYED_QUEUE_NAME)publicvoidreceiveDelayedQueue(Message message){String msg =newString(message.getBody());
log.info("当前时间:{},收到延时队列的消息:{}",newDate().toString(), msg);}
5️⃣ 运行测试
启动springboot主启动类,先后发起以下两个请求:
- http://localhost:8080/sendDelayMsg/delay1/20000(延迟20s)
- http://localhost:8080/sendDelayMsg/delay2/2000(延迟2s)
根据结果可以看到,第二条消息先被消费掉了,并不是和先前一样,排队首先等消息1处理完毕再处理消息2
不同于我们通过死信实现消息延迟的情况:
该插件等作用等价于在交换机处延迟,实现方式更为简单,只需要一个交换机,一个队列即可。
总结
RabbitMQ 实现延迟队列有两种方式,一种是通过死信来实现,其中又细分为设置队列的TTL和消息的TTL两种,原理就是消息在指定的时间过期后会通过死信交换机进入到死信队列,最后被消费者消费,不过基于消息到TTL来实现会存在消息积压而导致没有在后面发送到消息没有在指定延迟时间被消费的情况,因为该情况本质上是遵循先来先到的原则,先发送的消息延迟时间到了后才继续处理后面的消息;另一种是通过 RabbitMQ 的插件来实现,该插件的原理就是是消息在交换机处延迟,也就是生产者发送消息到延迟交换机等待指定时候才路由到队列中由消费者消费,该方式简单而且能避免上述问题,只需要一个延迟交换机即可实现,不需要死信交换机和死信队列。
延时队列在需要延时处理的场景下非常有用,使用 RabbitMQ 来实现延时队列可以很好的利用 RabbitMQ 的特性,如:消息可靠发送、消息可靠投递、死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过 RabbitMQ 集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失。当然,延时队列还有很多其它选择,比如利用 Java 的 DelayQueue,利用 Redis 的 zset,利用 Quartz 或者利用 kafka 的时间轮,这些方式各有特点,看需要适用的场景
7.8、发布确认高级
在生产环境中由于一些不明原因,导致 rabbitmq 重启,在 RabbitMQ 重启期间生产者消息投递失败,导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行 RabbitMQ 的消息可靠投递呢? 特别是在这样比较极端的情况,RabbitMQ 集群不可用的时候,无法投递的消息该如何处理呢?
解决方案就是缓存,比如当生产者发送消息到交换机时,但交换机不存在,我们应该将消息放入缓存中;或者交换机存在,队列不存在了,当交换机发送不到队列中也应该将消息放入缓存。然后在缓存中配置一个定时任务,对没有发送成功的消息重新进行投递。这样就避免了消息丢失的情况。
回调接口——消息确认
接下来我们通过代码实现以上机制,架构图如下所示:我们要解决问题就是如果图中的交换机或者队列出现问题,应该将消息进行缓存处理,防止消息丢失,具体的实现就是通过生产者的回调接口
ConfirmCallback
来实现。
以下实验环境基于上节springboot整合rabbitmq实现延迟队列的环境上
1️⃣ 修改配置文件
在配置文件当中需要添加配置表示开启发布消息成功到交换器后会触发回调方法
spring.rabbitmq.publisher-confirm-type=correlate
NONE
:禁用发布确认模式,是默认值CORRELATED
:发布消息成功到交换器后会触发回调方法SIMPLE
:经测试有两种效果,其一效果和 CORRELATED 值一样会触发回调方法;其二在发布消息成功后使用 rabbitTemplate 调用 waitForConfirms 或 waitForConfirmsOrDie 方法等待 broker 节点返回发送结果,根据返回结果来判定下一步的逻辑,要注意的点是 waitForConfirmsOrDie 方法如果返回 false 则会关闭 channel,则接下来无法发送消息到 broker
2️⃣ 编写初始化类
在init包中新建
Confirm.java
,新建上图中的交换机与队列:
packagecom.zsr.springbootrabbitmq.init;importorg.springframework.amqp.core.*;importorg.springframework.beans.factory.annotation.Qualifier;importorg.springframework.context.annotation.Bean;importorg.springframework.context.annotation.Configuration;@ConfigurationpublicclassConfirm{publicstaticfinalString CONFIRM_EXCHANGE_NAME ="confirm.exchange";publicstaticfinalString CONFIRM_QUEUE_NAME ="confirm.queue";publicstaticfinalString CONFIRM_ROUTING_KEY ="key1";// 声明Exchange@Bean("confirmExchange")publicDirectExchangeconfirmExchange(){returnnewDirectExchange(CONFIRM_EXCHANGE_NAME);}// 声明确认队列@Bean("confirmQueue")publicQueueconfirmQueue(){returnQueueBuilder.durable(CONFIRM_QUEUE_NAME).build();}// 声明确认队列与交换机的绑定关系@BeanpublicBindingqueueBinding(@Qualifier("confirmQueue")Queue queue,@Qualifier("confirmExchange")DirectExchange exchange){returnBindingBuilder.bind(queue).to(exchange).with("key1");}}
3️⃣ 实现回调接口
在
init
包中新建
MyCallBack.java
,实现 RabbitTemplate.ConfirmCallBack 接口
packagecom.zsr.springbootrabbitmq.init;importlombok.extern.slf4j.Slf4j;importorg.springframework.amqp.rabbit.connection.CorrelationData;importorg.springframework.amqp.rabbit.core.RabbitTemplate;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.stereotype.Component;importjavax.annotation.PostConstruct;@Slf4j@ComponentpublicclassMyCallBackimplementsRabbitTemplate.ConfirmCallback{@AutowiredprivateRabbitTemplate rabbitTemplate;// 将我们实现的MyCallBack接口注入到RabbitTemplate中@PostConstructpublicvoidinit(){
rabbitTemplate.setConfirmCallback(this);}/**
* 交换机确认回调方法
*
* @param correlationData 保存回调消息的ID以及相关信息
* @param ack 表示交换机是否收到消息(true表示收到)
* @param cause 表示消息接收失败的原因(收到消息为null)
*/@Overridepublicvoidconfirm(CorrelationData correlationData,boolean ack,String cause){String id = correlationData !=null? correlationData.getId():"";if(ack){
log.info("交换机已经收到ID为:{}的消息", id);}else{
log.info("交换机还未收到ID为:{}的消息,原因为:{}", id, cause);}}}
4️⃣ 编写消息生产者
在
SendMessageController.java
中新增以下代码:
@GetMapping("/confirm/sendMes/{message}")publicvoidsendConfirmMessage(@PathVariableString message){// 指定消息的id为1CorrelationData correlationData1 =newCorrelationData("1");
rabbitTemplate.convertAndSend(Confirm.CONFIRM_EXCHANGE_NAME,Confirm.CONFIRM_ROUTING_KEY, message, correlationData1);
log.info("发送消息内容为:{}", message);}
5️⃣ 编写消息消费者
在
MessageConsumer.java
中添加以下代码:
@RabbitListener(queues =Confirm.CONFIRM_QUEUE_NAME)publicvoidreceiveConfirmMessage(Message message){String msg =newString(message.getBody());
log.info("接收到的队列confirm.queue的消息为:{}", msg);}
6️⃣ 运行测试
运行springboot主启动类,请求 http://localhost:9090/confirm/sendMes/hellofdafasfad
根据结果可以看到消息成功发送到交换机,并触发了我们实现的回调函数。
这是没有出现问题的情况,如果我们交换机出现问题,收不到消息的样子是什么样子呢?
我们修改一下生产者的代码,将交换机的名字改成一个未知的名字:
然后再测试,同样请求以上的url,查看结果:
2021-11-30 21:46:10.092 INFO 37318 --- [nio-9090-exec-1] c.z.s.producer.SendMessageController : 发送消息内容为:hellofdafasfad
2021-11-30 21:46:10.123 ERROR 37318 --- [.156.9.173:5672] o.s.a.r.c.CachingConnectionFactory : Shutdown Signal: channel error; protocol method: #method<channel.close>(reply-code=404, reply-text=NOT_FOUND - no exchange 'unknown' in vhost '/', class-id=60, method-id=40)2021-11-30 21:46:10.125 INFO 37318 --- [nectionFactory2] c.z.springbootrabbitmq.init.MyCallBack : 交换机还未收到ID为:1的消息,原因为:channel error; protocol method: #method<channel.close>(reply-code=404, reply-text=NOT_FOUND - no exchange 'unknown' in vhost '/', class-id=60, method-id=40)
可以看到报错了,并显示了错误的原因是找不到名字为 unknown 的交换机。
那如果交换机成功收到了消息,队列出错没有收到呢?我们再来修改一下生产者代码,将交换机与队列之间绑定的路由key修改成一个未知的名称:
然后再测试,同样请求以上的url,查看结果:
可以看到发送的消息都成功被交换机接收,也收到了交换机的确认回调,但消费者并没有接收到消息,因为该消息的 RoutingKey 与队列的 BindingKey 不一致,也没有其它队列能接收这个消息,所以该消息被直接丢弃了。这显然不是我们希望的,我们应该知道没有路由成功的消息将其保存起来以便再次发送,怎么实现呢?这就引入接下来的消息回退。
回调接口——消息回退
通过以上分析,我们知道在仅开启了生产者确认机制的情况下,交换机接收到消息后,会直接给消息生产者发送确认消息,如果发现该消息不可路由,那么消息会被直接丢弃,但此时生产者是不知道消息被丢弃这个事件的。那么如何让无法被路由的消息能够让生产者感知并做出处理呢?
我们可以通过设置
mandatory
参数可以在当消息传递过程中不可达目的地时将消息返回给生产者。
1️⃣ 修改配置文件
在配置文件当中需要添加配置表示开启消息路由失败后会触发消息回退回调方法
spring.rabbitmq.publisher-returns=true
2️⃣ 修改回调接口
修改
MyCallBack.java
,新增实现
RabbitTemplate.ReturnsCallback
接口
packagecom.zsr.springbootrabbitmq.init;importlombok.extern.slf4j.Slf4j;importorg.springframework.amqp.core.ReturnedMessage;importorg.springframework.amqp.rabbit.connection.CorrelationData;importorg.springframework.amqp.rabbit.core.RabbitTemplate;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.stereotype.Component;importjavax.annotation.PostConstruct;@Slf4j@ComponentpublicclassMyCallBackimplementsRabbitTemplate.ConfirmCallback,RabbitTemplate.ReturnsCallback{@AutowiredprivateRabbitTemplate rabbitTemplate;// 将我们实现的MyCallBack接口注入到RabbitTemplate中@PostConstructpublicvoidinit(){// 设置确认消息交给谁处理
rabbitTemplate.setConfirmCallback(this);// 设置回退消息交给谁处理
rabbitTemplate.setReturnsCallback(this);}/**
* 交换机确认回调方法
*
* @param correlationData 保存回调消息的ID以及相关信息
* @param ack 表示交换机是否收到消息(true表示收到)
* @param cause 表示消息接收失败的原因(收到消息为null)
*/@Overridepublicvoidconfirm(CorrelationData correlationData,boolean ack,String cause){String id = correlationData !=null? correlationData.getId():"";if(ack){
log.info("交换机已经收到ID为:{}的消息", id);}else{
log.info("交换机还未收到ID为:{}的消息,原因为:{}", id, cause);}}/**
* 路由出现问题的消息回退方法
*
* @param returned 返回消息及其元数据
*/@OverridepublicvoidreturnedMessage(ReturnedMessage returned){
log.info("消息{}:,被交换机{}退回,退回原因:{},路由key:{}",newString(returned.getMessage().getBody()),
returned.getExchange(),
returned.getReplyText(),
returned.getRoutingKey());}}
然后我们在进行测试,发送消息指定错误的routing-key,结果如下:
可以看到,消息回退的回调函数成功被触发,回退消息的错误原因是路由key出错
备份交换机
前面我们提到交换机如果出现了问题接受不到消息,我们就让交换机进行消息确认,让生产者重新发消息。如果队列出问题收不到消息,我们就进行消息回退,也是让生产者重新发消息。此外,还有一种解决方法就是给交换机添加一个备份交换机,有了备份交换机之后可以不用讲消息回退给生产者,而是将无法投递的消息交给备份交换机,让备份交换机通过自己的路由以及自己的队列发送给消费者,这样也能达到一个消息不丢失的目的。并且这种方式还能建立一个报警队列,用独立的消费者进行监测和报警。
如下图所示:
接下来我们用代码来实现一下:
1️⃣ 修改初始化类
我们修改
Confirm.java
,声明图中的备用交换机、备用队列、警告队列以及其之间的绑定关系。
packagecom.zsr.springbootrabbitmq.init;importorg.springframework.amqp.core.*;importorg.springframework.beans.factory.annotation.Qualifier;importorg.springframework.context.annotation.Bean;importorg.springframework.context.annotation.Configuration;@ConfigurationpublicclassConfirm{publicstaticfinalString CONFIRM_EXCHANGE_NAME ="confirm.exchange";publicstaticfinalString CONFIRM_QUEUE_NAME ="confirm.queue";publicstaticfinalString CONFIRM_ROUTING_KEY ="key1";publicstaticfinalString BACKUP_EXCHANGE_NAME ="backup.exchange";publicstaticfinalString BACKUP_QUEUE_NAME ="backup.queue";publicstaticfinalString WARNING_QUEUE_NAME ="warning.queue";// 声明确认交换机,并绑定备份交换机@Bean("confirmExchange")publicDirectExchangeconfirmExchange(){ExchangeBuilder exchangeBuilder =ExchangeBuilder.directExchange(CONFIRM_EXCHANGE_NAME).durable(true).withArgument("alternate-exchange", BACKUP_EXCHANGE_NAME);return exchangeBuilder.build();}// 声明备份交换机@Bean("backupExchange")publicFanoutExchangebackupExchange(){returnnewFanoutExchange(BACKUP_EXCHANGE_NAME);}// 声明备份队列@Bean("backQueue")publicQueuebackQueue(){returnQueueBuilder.durable(BACKUP_QUEUE_NAME).build();}// 声明确认队列@Bean("confirmQueue")publicQueueconfirmQueue(){returnQueueBuilder.durable(CONFIRM_QUEUE_NAME).build();}// 声明警告队列@Bean("warningQueue")publicQueuewarningQueue(){returnQueueBuilder.durable(WARNING_QUEUE_NAME).build();}// 声明确认队列绑定关系@BeanpublicBindingqueueBinding(@Qualifier("confirmQueue")Queue queue,@Qualifier("confirmExchange")DirectExchange exchange){returnBindingBuilder.bind(queue).to(exchange).with("key1");}// 声明备份队列绑定关系@BeanpublicBindingbackupBinding(@Qualifier("backQueue")Queue queue,@Qualifier("backupExchange")FanoutExchange backupExchange){returnBindingBuilder.bind(queue).to(backupExchange);}// 声明报警队列绑定关系@BeanpublicBindingwarningBinding(@Qualifier("warningQueue")Queue queue,@Qualifier("backupExchange")FanoutExchange
backupExchange){returnBindingBuilder.bind(queue).to(backupExchange);}}
2️⃣ 编写报警消费者
在
MessageConsumer.java
中新增以下代码:
@RabbitListener(queues =Confirm.WARNING_QUEUE_NAME)publicvoidreceiveWarningMsg(Message message){String msg =newString(message.getBody());
log.error("报警发现不可路由消息:{}", msg);}
3️⃣ 运行测试
重新启动项目的时候需要把原来的confirm.exchange 删除因为我们修改了其绑定属性,不然报以下错:
启动成功后发送消息指定错误的routing-key,请求 http://localhost:9090/confirm/sendMes/hellofdafasfad,结果如下:
可以看到消息走了备份交换机,因此我们可以得出一个结论:当回调函数和备用交换机一起使用的时候,备份交换机优先级高。
7.9、幂等性
所谓
幂等性
就是指用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。
比如用户购买商品后支付后已经扣款成功,但是返回结果时出现网络异常,用户并不知道自己已经付费成功,于是再次点击按钮,此时就进行了第二次扣款,这次的返回结果成功。但是扣了两次用户的钱,这就出现了不满足
幂等性
,即用户对统一操作发起了一次或多次请求不一致,产生了副作用导致用户被多扣费了。
对应消息队列 MQ 中出现的幂等性问题就是消息重复消费。比如消费者在消费 MQ 中的消息时,MQ 已把消息发送给消费者,消费者在给 MQ 返回 ack 时网络中断,故 MQ 未收到确认信息,该条消息会重新发给其他的消费者,或者在网络重连后再次发送给该消费者,但实际上该消费者已成功消费了该条消息,造成消费者的重复消费。
❓ 怎么解决呢
在海量订单生成的业务高峰期,生产端有可能就会重复发生了消息,这时候消费端就要实现幂等性,MQ 消费者的幂等性的解决一般使用全局ID,就是每次完成一次操作应该生成一个唯一标识,比如时间戳、UUID、消息队列中消息的id号等等。这样每次消费消息时都先通过该唯一标识先判断该消息是否已消费过,如果消费过则不再消费,则避免了消息重复消费问题。
业界主流的幂等性解决方案有以下两种操作:
- 指纹码机制:指纹码是按照一定规则,比如时间戳、其他服务给的唯一信息码而拼接出来的唯一标识,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来。然后就利用查询语句进行判断这个指纹码是否存在数据库中,优势就是实现简单,只需要进行拼接即可,然后查询判断是否重复;劣势就是在高并发时,如果是单个数据库会出现写入性能瓶颈,当然也可以采用分库分表提升性能。(不推荐)
- Redis 原子性:利用 redis 执行 setnx 命令,天然具有幂等性,从而实现不重复消费。(推荐)
7.10、优先级队列
📄 使用场景:
电商系统中常常会遇到订单催付的场景,比如用户在淘宝下单后,往往会及时将订单信息推送给用户,如果用户在设定的时间内未付款那么就会给用户推送一条短信提醒,这个功能看似很简单,但是当订单量十分大的情况下,商家往往要进行优先级排序,大客户先推送,小客户后推送的。曾经我们的后端系统的解决办法是使用 redis 的 List 做一个简简单单的消息队列来实现定时轮询推送,但这并不能实现一个优先级的场景,所以订单量大了之后我们应该采用 RabbitMQ 进行改造和优化,给以给要发送的消息设置优先级,满足不同场景的需要。
❓ 如果在 RabbitMQ 中实现优先级队列呢?
- 在web界面创建队列时添加
- 在web界面policies中设置,更多可以看RabbitMQ Policy的使用 - zbs666 - 博客园 (cnblogs.com)
- 代码中实现
// 1.队列声明的代码中添加优先级参数Map<String,Object> params =newHashMap();params.put("x-max-priority",10);// 官方允许是0~255之间,此处设置为10,即允许优先级范围从0~10(不要设置过大以免浪费cpu和内存)channel.queueDeclare("hello",true,false,false, params);// 2.消息中代码添加优先级(要在队列优先级设置的范围内)AMQP.BasicProperties properties =newAMQP.BasicProperties().builder().priority(5).build();channel.basicPublish("",QUEUE_NAME,properties,message.getBytes());
注意:队列需要设置为优先级队列的同时消息也必须设置消息的优先级才能生效,而且消费者需要等待消息全部发送到队列中才去消费因为这样才有机会对消息进行排序。
7.11、惰性队列
使用场景
RabbitMQ 从 3.6.0 版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。当消费者由于各种各样的原因(比如消费者下线、宕机亦或者是由于维护而关闭等)而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了,我们可以将消息存储在磁盘中,避免占用大量内存。
默认情况下,当生产者将消息发送到 RabbitMQ 的时候,队列中的消息会尽可能的存储在内存之中,这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当 RabbitMQ 需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。虽然 RabbitMQ 的开发者们一直在升级相关的算法,但是效果始终不太理想,尤其是在消息量特别大的时候。
队列的两种模式
队列具备两种模式:default 和 lazy。默认的为default 模式,在3.6.0 之前的版本无需做任何变更。lazy 模式即为惰性队列的模式,可以通过调用 channel.queueDeclare 方法的时候在参数中设置,也可以通过 Policies 的方式设置,如果一个队列同时使用这两种方式设置的话,那么 Policies 的方式具备更高的优先级。
如果要通过声明的方式改变已有队列的模式的话,那么只能先删除队列,然后再重新声明一个新的。
在队列声明的时候可以通过“x-queue-mode”参数来设置队列的模式,取值为“default”和“lazy”。
Map<String,Object> args =newHashMap<String,Object>();
args.put("x-queue-mode","lazy");
channel.queueDeclare("myqueue",false,false,false, args);
内存开销对比
在发送 1 百万条消息,每条消息大概占 1KB 的情况下,普通队列占用内存是 1.2GB,而惰性队列仅仅占用 1.5MB
八、RabbitMQ集群
8.1、三节点 RabbitMQ 集群搭建
以上所有的章节都是基于单机版的 RabbitMQ 进行讲解的,但这并无法满足目前真实应用的要求。如果 RabbitMQ 服务器遇到内存崩溃、机器掉电或者主板故障等情况,该怎么办?单台 RabbitMQ 服务器可以满足每秒 1000 条消息的吞吐量,那么如果应用需要 RabbitMQ 服务满足每秒 10 万条消息的吞吐量呢?购买昂贵的服务器来增强单机 RabbitMQ 务的性能显得捉襟见肘,搭建一个 RabbitMQ 集群才是解决实际问题的关键。
环境准备:准备三台centos机器并都具备RabbitMQ的环境,我们要搭建的集群如下图所示:
1️⃣ 修改3台机器的主机名称
# 在三台机器上分别执行以下命令修改主机名称vim /etc/hostname
# 修改完记得重启,才能看到生效reboot
这里三台机器的名称分别为 node1、node2、node3,其中 node1 作为主节点,后续 node2、node3 节点我们将添加到node1 节点组成集群。
2️⃣ 配置各个节点的hosts文件,让各个节点都能互相识别对方
# 在三台机器上分别修改/etc/host文件,增加三台机器节点的域名ip映射vim /etc/hosts
3️⃣ 确保各个节点的 cookie 文件使用的是同一个值
RabbitMQ 集群要求底层erlang所使用cookie值相同,我们在节点1这台机器上使用远程复制命令将该机器上的cookie复制给节点2和节点3
scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-X5G2pNd1-1638453088578)(/Users/zhongsiru/Library/Application Support/typora-user-images/image-20211201190153015.png)]
4️⃣ 启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RbbitMQ 应用服务
# 在三台节点上分别执行该命令
rabbitmq-server -detached
5️⃣ 将节点2节点3添加到节点1中组成集群
在节点 2 执行:
rabbitmqctl stop_app # 关闭RabbitMQ服务
rabbitmqctl reset # 重置
rabbitmqctl join_cluster rabbit@node1 # 加入到node1几点
rabbitmqctl start_app # 启动RabbitMQ服务
在节点 3 同样执行:
rabbitmqctl stop_app # 关闭RabbitMQ服务
rabbitmqctl reset # 重置
rabbitmqctl join_cluster rabbit@node2 # 加入到node2节点(等价于加入到node1节点)
rabbitmqctl start_app # 启动RabbitMQ服务
注意命令区别:
rabbitmqctl stop
会将Erlang虚拟机关闭,
rabbitmqctl stop_app
只关闭RabbitMQ服务
6️⃣ 查看集群状态
在三台机器任何一台执行以下命令均可查询到集群状态:
rabbitmqctl cluster_status
7️⃣ 为集群创建账户
在任意一台机器执行以下命令即可:
# 创建账号
rabbitmqctl add_user admin 123# 设置用户角色
rabbitmqctl set_user_tags admin administrator
# 设置用户权限
rabbitmqctl set_permissions -p "/" admin ".*"".*"".*"
此时,我们就可以通过该用户登录到web管理界面,我们通过任意一台机器的ip:15672进行登陆都可以
📄 集群搭建完成后也可以进行脱离
在 node2 和 node3 两台机器分别执行以下命令即可接触集群关系:
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl start_app
rabbitmqctl cluster_status
然后在 node1 机器上执行以下命令忘记 node2 和 node3 机器:
rabbitmqctl forget_cluster_node rabbit@node2
rabbitmqctl forget_cluster_node rabbit@node3
8.2、镜像队列
上一节我们搭建好了三节点的 RabbieMQ 的集群,但此时该集群是不可复用的,意思就是说在node1创建的队列,在node2和node3是没有的,因此一旦node1宕机了,这个队列也就消失了,不会因为有三台机器就有三个队列,因此这样会造成消息的丢失。那将所有的消息以及对应的队列都设置为持久化处理能否很好的避免这个问题呢?答案是否定的,因为消息在发送之后和被写入磁盘井执行刷盘动作之间存在一个短暂却会产生问题的时间窗,因此该方式仍然无法避免由于缓存导致的问题。
因此引入了镜像队列,镜像的意思就是备份,我们给集群中的一个节点发送消息不应该只在这个节点上存在,而是在集群中的其他节点上也有备份,这样就可以避免其中一个节点宕机导致消息丢失。
引入镜像队列
Mirror Queue
的机制后,可以将队列镜像到集群中的其他 Broker 节点之上,如果集群中的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性。
❓ 镜像队列怎么实现呢
我们只需要在集群中任意一个节点上添加策略即可:
从界面上可以非常直观的看到一个 Policy 策略需要的元素:
Name
:策略名称,可以随便指定,最好语义化便于理解Pattern
:指定正则表达式去匹配Queues/Exchanges名称,这里设置为^mirror
表示所有以mirror开头的队列名都会绑定该策略,比如hello_mirror等等Apply to
: 该策略对Queue还是对Exchange生效,或者两者都适用Priority
:优先级Definition
: 添加的args,KV键值对 - ha-mode=exactly 表示开启备份模式- ha-params=2 表示备份数量为2- ha-sync-mode=automatic 表示进行自动备份
设置完成后添加该策略,成功后如下图所示:
比如这里我们新增一个名称为
mirror_hello
的队列样式如下所示:有个+1的标识
点进去查看队列详细信息,可以看到它在 node3 节点上进行了备份
此时我们在 node1 上执行以下命令停止 RabbitMQ 服务模拟宕机
然后查看web界面可以看到 node1 宕机了
再次查看
mirror_hello
队列的详细信息,可以看到该队列已经转移到 node3 节点了,并且在 node2 上有备份
此时我们在该队列上发送消息并不会丢失,因为它在其他机器上做了备份。
8.3、Haproxy+Keepalive 实现高可用负载均衡
上小节中我们了解了镜像队列,实现了消息不再丢失,但是存在着一个问题,就是我们生产者和消费者只能连接集群中的一个节点。比如当前就连接着node1节点,但如果此时node1节点出现问题宕机了连接不上了,此时生产者和消费者就需要连接集群中的其他机器,但是生产者完全不知道集群中其他机器的存在,因为代码中写死了连接的ip地址。
这样导致了它只能连接一个节点,而它又不能自动的变更ip连接其他的节点,于是产生了生产者/消费者连接集群而无法变更ip的问题,因此我们需要借助第三方的负载均衡软件来帮我解决这个问题,使用负载均衡后的架构图如下图所示:
生产者发消息先走VIP,VIP路由到集群中的主机,由主机进行转发到多台 MQ 节点进行处理;一旦主机宕机了,就会由其中的 keepalive 监测主机状况,如果发生宕机就将 ip 漂移到另外一个备机上,从现在开始VIP就路由到备机,备机再进行转发到多台 MQ 节点进行处理,而且备机还是定时监测主机是否恢复,如果没有恢复就接管主机的所有工作。
以上是市面上最主流的高可用负载均衡方案,是为了解决生产者无法连接多台机器的问题。我们只需要安装
Haproxy
和
keepalive
这两个软件即可使用。
8.4、Federation Exchange
Federation Queue
即 联合/联邦队列。
假设一个 RabbitMQ 集群中的两台机器分布在异地,一台 broker 位于北京,另一台 broker 深圳位于深圳,彼此之间相距甚远,两者之间的网络延迟是一个不得不面对的问题。其中在北京的业务(Client 北京) 需要连接(broker 北京),向其中的交换器 exchangeA 发送消息,此时的网络延迟很小,(Client 北京)可以迅速将消息发送至 exchangeA 中,就算在开启了 publisherconfirm 或者事务机制的情况下,也可以迅速收到确认信息。但如果此时有个在深圳的业务(Client 深圳)需要向 exchangeA 发送消息, 由于(Client 深圳) (broker 北京)之间有很大的网络延迟,(Client 深圳) 将发送消息至 exchangeA 会经历一定的延迟,尤其是在开启了 publisherconfirm 机制或者事务机制的情况下,(Client 深圳) 会等待很长的延迟时间来接收(broker 北京)的确认信息,进而必然造成这条发送线程的性能降低,甚至造成一定程度上的阻塞。
❓ 怎么解决这种异地数据访问延迟的问题呢
将深圳的业务(Client 深圳)部署到北京的机房即可解决这个问题,但是如果(Client 深圳)调用那些原本处在深圳的业务,那么又会引发新的时延问题,总不见得将所有业务全部部署在一个机房,这样容灾又何以实现? 在 RabbitMQ 进群中,使用
Federation
插件就可以很好地解决这个问题。
接下来我们来看看联合交换机的原理,如下图所示:
这里有两个节点 node1 和 node2,可以理解为 node1 就在北京,node2 就在深圳,其中 node1 处于 upstream 上游,node2 处于 downstream 下游,为了解决数据异地访问的延迟问题,我们需要做出数据同步,也就是上游的数据忘下游走。这里的数据同步以交换机为节点,也就是上游的 node1 节点的联邦交换机同步数据给下游的 node2 节点的联邦交换机,其中经历了一个配置
federation: fed_exchange -> rabbit@node2
,也就是给 node1 节点的联邦交换机配置了 node2 节点的地址,也就让 node1 节点能到找到 node2 节点,两边使用的交换机名称相同,以此来同步数据。
注意:数据同步到前提是 consumer 在 node2 上也就是下游创建了联邦交换机,然后在上游上配置地址映射方可通过联邦交换机进行同步。
❓ 如何在 RabbitMQ 集群中配置
首先在集群中的三台机器上分别执行以下命令即可开启
Federation
插件:
rabbitmq-plugins enable rabbitmq_federation
rabbitmq-plugins enable rabbitmq_federation_management
此时回到web界面,即可看到插件已经出现:
接下来在 node2 节点上创建一个名为
fed_exchange
的交换机:
然后在处于下游(downstream)的 node2 节点配置上游(upstream)的 node1 节点:
创建完成后如下所示:
最后设置一条 policy 规则,意思就是给所有以
fed
名称开头的交换机添加上游策略:
添加完如下图所示:
上述配置都完成后,就可以在 Ferderation Status 界面看到联合交换机已经配置成功了
8.5、Ferderation Queue
上节我们讲述了联邦交换机的实现,本质上就是解决不同地区间的数据同步问题,先前我们是按照交换机进行同步,也就是上游交换机通过链接地址链接到下游交换机然后进行数据传递。除了通过交换机进行同步外,我们还可以通过队列进行同步,于是引入了联邦队列
Ferderation Queue
的概念。
联邦队列可以在多个 Broker 节点(或者集群)之间为单个队列提供均衡负载的功能。一个联邦队列可以连接一个或者多个上游队列(upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息需求。
原理图类似联邦交换机如下图所示:node1 的队列想要同步数据给 node2 的队列,就需要将处于下游的 node2 与上游的 node1 进行绑定。
在 RabbitMQ 集群中的配置同联邦交换机也类似,首先需要在两个节点上创建名为
fed.queue
的两个队列,然后将在处于下游(downstream)的 node2 节点配置上游(upstream)的 node1 节点。该步骤前面已经完成,不需要再进行一遍。
接下来就是设置一条 policy 规则,将就是给所有以
fed
名称开头的队列添加上游策略:
添加完成后如下所示:
到此即配置成功。
8.6、Shovel
与 Federation 具备的数据转发功能类似,
Shovel
能够可靠持续地从一个 Broker 中的队列(作为 source 源端)拉取数据并转发至另一个 Broker 中的交换机(作为 destination 目的段)。作为源端的队列和作为目的端的交换器可以同时位于同一个 Broker,也可以位于不同的 Broker 上。Shovel 可以翻译为"铲子",是一种比较形象的比喻,这个"铲子"可以将消息从一方"铲子"另一方。Shovel 行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理。
原理图如下所示:当我们发送消息给 Q1 时,消息会通过 Shovel 同步给 Q2,也就是说如果我们往 Q1 和 Q2 种各发一条消息,Q1 只有1条消息,而 Q2 会收到2条消息,其中1条来自 Q1 的同步。
在 RabbitMQ 集群中使用 Shovel 的方法如下:
1️⃣ 开启插件
# 在集群中需要开启该插件的节点机器上执行以下命令:
rabbitmq-plugins enable rabbitmq_shovel
rabbitmq-plugins enable rabbitmq_shovel_management
开启后在web界面可以看到该插件:
2️⃣ 添加 shovel 源和目的地
上图中的操作含义就是将 node1 节点中的 Q1 队列同步到 node2 节点的 Q2 队列。
版权归原作者 Baret-H 所有, 如有侵权,请联系我们删除。