0


【RabbitMQ】安装及六种模式

文章目录

rabbitmq:0->1的学习

学习文档:https://www.cnblogs.com/guyuyun/p/14970592.html

安装rabbitmq镜像

cd /home/rabbitmq

docker run -d \
-v ./data:/var/lib/rabbitmq \
-p 5672:5672 -p 5673:15672 --name rabbitmq --restart=always \
--hostname myRabbit rabbitmq:3.9.12-management

访问容器内部15672端口映射到外面的端口地址

这里是127.0.0.1:5673

默认账号密码:账号 guest , 密码 guest

RabbitMQ六种模式

Hello world模式

Hello world模式是最简单的一种模式,一个producer发送message,另一个consumer接收message。

  • producer示例 send.py :producer端发送message会涉及最简单的5个步骤,具体见代码注释。import pika# 1. 创建一个到RabbitMQ server的连接,如果连接的不是本机,# 则在pika.ConnectionParameters中传入具体的ip和port即可,默认端口开放为5672,可以不传connection = pika.BlockingConnection( pika.ConnectionParameters('localhost', port))# 2. 创建一个channelchannel = connection.channel()# 3. 创建队列,queue_declare可以使用任意次数,# 如果指定的queue不存在,则会创建一个queue,如果已经存在,# 则不会做其他动作,官方推荐,每次使用时都可以加上这句channel.queue_declare(queue='hello')# 4. 发布消息channel.basic_publish( exchange='', # RabbitMQ中所有的消息都要先通过交换机,空字符串表示使用默认的交换机 routing_key='hello', # 指定消息要发送到哪个queue body='Hello world!') # 消息的内容# 5. 关闭连接connection.close()
  • consumer示例 receive.py :consumer端接收message会涉及最简单的6个步骤,具体见代码注释。import pikadef main(): # 1. 创建一个到RabbitMQ server的连接,如果连接的不是本机, # 则在pika.ConnectionParameters中传入具体的ip和port即可 connection = pika.BlockingConnection( pika.ConnectionParameters('localhost')) # 2. 创建一个channel channel = connection.channel() # 3. 创建队列,queue_declare可以使用任意次数, # 如果指定的queue不存在,则会创建一个queue,如果已经存在, # 则不会做其他动作,官方推荐,每次使用时都可以加上这句 channel.queue_declare(queue='hello') # 4. 定义消息处理程序 def callback(ch, method, properties, body): print('[x] Received %r' % body) # 5. 接收来自指定queue的消息 channel.basic_consume( queue='hello', # 接收指定queue的消息 on_message_callback=callback, # 接收到消息后的处理程序 auto_ack=True) # 指定为True,表示消息接收到后自动给消息发送方回复确认,已收到消息 print('[*] Waiting for message.') # 6. 开始循环等待,一直处于等待接收消息的状态 channel.start_consuming()if __name__ == '__main__': main()

Work queues模式

Work queues模式即工作队列模式,也称为Task queues模式(任务队列模式),这个模式的特点在于,同一个queue可以允许多个consumer从中获取massage,RabbitMQ默认会从queue中依次循环的给不同的consumer发送message。与Hello world模式相比,工作队列模式在示例代码中有些许不同

  • hello world模式中指定了 auto_ack=True ,表示consumer接收到message之后自动发送确认标识,告诉RabbitMQ可以从队列中移除该条message了。工作队列模式下,使用了默认值,即需要手动确认 ch.basic_ack(delivery_tag=method.delivery_tag)
  • hello world模式中只有一个consumer去处理queue中的message,工作队列模式中可以有多个consumer去处理queue中的message。
  • 工作队列模式中可以使message持久化,保证RabbitMQ服务挂掉之后message依然不被丢失。
  • 工作队列模式中可以手动标记message已接收并处理完成(这一步在编程时千万别忘了,否则RabbitMQ会认为该条message没有被处理,会一直保留在队列中,并适时发送到别的consumer中)。
  • producer示例 new_task.py :注意如果声明queue时参数不一样,则建议换一个名称,因为RabbitMQ中不允许同名但实际上是不同的两个queue存在,比如指定了 durable=True 参数。import pikaconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 声明durable=True可以保证RabbitMQ服务挂掉之后队列中的消息也不丢失,原理是因为# RabbitMQ会将queue中的消息保存到磁盘中channel.queue_declare(queue='task_queue')message = 'Hello World! 555'channel.basic_publish( exchange='', routing_key='task_queue', body=message, # delivery_mode=2可以指定此条消息持久化,防止RabbitMQ服务挂掉之后消息丢失 # 但是此属性设置并不能百分百保证消息真的被持久化,因为RabbitMQ挂掉的时候 # 它可能还保存在缓存中,没来得及同步到磁盘中 # properties=pika.BasicProperties(delivery_mode=2))print(" [x] Sent %r" % message)connection.close()
  • consumer示例 worker.py :RabbitMQ会将queue中的消息依次发送给不同的consumer,所以这里的示例可以用同样的代码多开几个客户端进行测试。import pikaimport timeconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 声明durable=True可以保证RabbitMQ服务挂掉之后队列中的消息也不丢失,原理是因为# RabbitMQ会将queue中的消息保存到磁盘中channel.queue_declare(queue='task_queue')print(' [*] Waiting for messages.')def callback(ch, method, properties, body): print(" [x] Received %r" % body.decode()) # 此处以消息中的“.”的数量作为sleep的值,是为了模拟不同消息处理的耗时 time.sleep(body.count(b'.')) print(" [x] Done") # 手动标记消息已接收并处理完毕,RabbitMQ可以从queue中移除该条消息 ch.basic_ack(delivery_tag=method.delivery_tag)# prefetch_count表示接收的消息数量,当我接收的消息没有处理完(用basic_ack# 标记消息已处理完毕)之前不会再接收新的消息了channel.basic_qos(prefetch_count=1)channel.basic_consume(queue='task_queue', on_message_callback=callback)channel.start_consuming()

Publish/Subscribe模式

相对于工作/任务模式中的一个message只能发送给一个consumer使用,发布订阅模式会将一个message同时发送给多个consumer使用,其实就是producer将message广播给所有的consumer。

交换机

这个模式中会引入交换机(exchange)的概念,其实在RabbitMQ中,所有的producer都不会直接把message发送到queue中,甚至producer都不知道message在发出后有没有发送到queue中,事实上,producer只能将message发送给exchange,由exchange来决定发送到哪个queue中。

exchange的一端用来从producer中接收message,另一端用来发送message到queue,exchange的类型规定了怎么处理接收到的message,发布订阅模式使用到的exchange类型为

fanout

,这种exchange类型非常简单,就是将接收到的message广播给已知的(即绑定到此exchange的)所有consumer。

当然,如果不想使用特定的exchange,可以使用

exchange=''

表示使用默认的exchange,默认的exchange会将消息发送到

routing_key

指定的queue,可以参考工作(任务)队列模式和Hello world模式。

fanout类型

在使用fanout类型的exchange时,并不是只有一个queue,然后将queue中的message每个consumer都发一份,而是会为每个已知(绑定)的consumer创建一个queue,然后广播message到对应queue中,fanout类型的exchange会将从生产者接收到的message广播到所有的绑定到自己的queue中,这个queue通常是由consumer端指定的专属于consumer自己的、由RabbitMQ随机命名的queue,由此,consumer广播message后,每个consumer都能收到同样的一条message了。

consumer端需要为自己生成一个专属于自己的由RabbitMQ随机命名的queue,然后绑定到fanout类型的exchange上,由此,exchange才知道将message广播给哪些已经绑定到自己的queue。

  • 示例 emit_log.py :用于生成一条日志信息,然后广播给所有consumer。import pikaconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 创建一个指定名称的交换机,并指定类型为fanout,用于将接收到的消息广播到所有queue中channel.exchange_declare(exchange='logs', exchange_type='fanout')message = "info: Hello World!"# 将消息发送给指定的交换机,在fanout类型中,routing_key=''表示不用发送到指定queue中,# 而是将发送到绑定到此交换机的所有queuechannel.basic_publish(exchange='logs', routing_key='', body=message)print(" [x] Sent %r" % message)connection.close()
  • 示例 receive_logs.py :这个程序可以多运行几个,表示有多个consumer需要使用producer发送的消息。import pikaconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 指定交换机channel.exchange_declare(exchange='logs', exchange_type='fanout')# 使用RabbitMQ给自己生成一个专有的queueresult = channel.queue_declare(queue='', exclusive=True)queue_name = result.method.queue# 将queue绑定到指定交换机channel.queue_bind(exchange='logs', queue=queue_name)print(' [*] Waiting for logs.')def callback(ch, method, properties, body): print(" [x] %r" % body)channel.basic_consume( queue=queue_name, on_message_callback=callback, auto_ack=True)channel.start_consuming()

Routing模式

路由模式中,exchange类型为direct,与发布订阅模式相似,但是不同之处在于,发布订阅模式将message不加区分广播给所有的绑定queue,但是路由模式中,允许queue在绑定exchange时,同时指定 routing_key ,exchange就只会发送message到与 routing_key 匹配的queue中,其他的所有message都将被丢弃。当然,也允许多个queue指定相同的 routing_key ,此时效果就相当于fanout类型的发布订阅模式了。

producer端:从代码上看,路由模式和订阅模式非常相似,唯一不同的是,exchange类型为direct,且发送message时多了一个routing_key参数,exchange会根据routing_key将message发送到对应的queue中。

  • 示例 emit_log_direct.py :发送不同级别的日志消息到queue中,不同的consumer根据自己指定的routing_key接收message。import pikaconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 指定交换机名称和类型channel.exchange_declare(exchange='direct_logs', exchange_type='direct')# severity = 'info'# severity = 'warning'severity = 'error'message = 'Hello World!'# 与fanout类型的发布订阅模式相比,只是多了一个routing_key参数# 交换机会根据routing_key将消息发送到对应的queue中channel.basic_publish( exchange='direct_logs', routing_key=severity, body=message)print(" [x] Sent %r:%r" % (severity, message))connection.close()

consumer端:在路由模式中,不同的queue可以指定相同的routing_key,同一个queue也可以指定多个routing_key,从exchange角度看,它知道所有绑定到自己的queue,也知道每个queue指定的routing_key,发送消息时,只需要根据queue的routing_key进行发送即可。

  • 示例 receive_logs_direct.py :这个程序可以多运行几个,每个程序指定接收不同日志级别的消息。import pikaconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 指定交换机名称和类型channel.exchange_declare(exchange='direct_logs', exchange_type='direct')# 使用RabbitMQ给自己生成一个专属于自己的queueresult = channel.queue_declare(queue='', exclusive=True)queue_name = result.method.queue# 绑定queue到交换机,并指定自己只接受哪些routing_key# 可以都接收,也可以只接收一种# for severity in ['error', 'warning', 'info']:for severity in ['error']: channel.queue_bind( exchange='direct_logs', queue=queue_name, routing_key=severity)print(' [*] Waiting for logs. To exit press CTRL+C')def callback(ch, method, properties, body): print(" [x] %r:%r" % (method.routing_key, body))channel.basic_consume( queue=queue_name, on_message_callback=callback, auto_ack=True)channel.start_consuming()

Topics模式

主题模式的exchange类型为topic,相较于路由模式,主题模式更加灵活,区别就在于它的routing_key可以带通配符 * (匹配一个单词)和 # (匹配0个或多个单词),每个单词以点号分隔,但注意,routing_key的总大小不能超过255个字节。

如果一个message同时匹配了多个queue中的routing_key,那这几个queue都会收到这个message,如果一个message同时匹配了一个queue中的多个routing_key,那这个queue也只会接收一次这条message,如果一个message没有匹配上任何routing_key,那么这个message将被丢弃。

如果routing_key定义为 # (就只有这一个通配符),那么这个queue将接收所有message,就像exchange类型为fanout的发布订阅模式一样,如果routing_key两个通配符都没有使用,那么这个queue将会接收固定routing_key的message,就像exchange类型为direct的路由模式一样。

producer端:从代码上讲,producer的代码与路由模式没什么区别,只不过在routing_key的传值上需要注意与想要发送到的queue进行匹配。

  • 示例 emit_log_topic.py :还是发送日志消息的示例,不过消息类型不再只有级别这一种类型,还添加了发送者的信息,级别与发送者之间以点号分隔。import pikaconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 指定交换机名称和类型channel.exchange_declare(exchange='topic_logs', exchange_type='topic')# 以点号分隔每个单词routing_key = 'anonymous.error'message = 'Hello World!'channel.basic_publish( exchange='topic_logs', routing_key=routing_key, body=message)print(" [x] Sent %r:%r" % (routing_key, message))connection.close()

consumer端:consumer根据需要,使用星号

*

和井号

#

两个通配符对routing_key进行特定主题的匹配,其余部分与路由模式则是一致的。

  • 示例 receive_logs_topic.py : 这个程序可以多运行几个,每个程序使用通配符指定不同的主题。import pikaconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 指定交换机名称和类型channel.exchange_declare(exchange='topic_logs', exchange_type='topic')# 使用RabbitMQ给自己生成一个专属于自己的queueresult = channel.queue_declare(queue='', exclusive=True)queue_name = result.method.queue# 可以绑定多个routing_key,routing_key以点号分隔每个单词# *可匹配一个单词,#可以匹配0个或多个单词for binding_key in ['anonymous.*']: channel.queue_bind( exchange='topic_logs', queue=queue_name, routing_key=binding_key)print(' [*] Waiting for logs. To exit press CTRL+C')def callback(ch, method, properties, body): print(" [x] %r:%r" % (method.routing_key, body))channel.basic_consume( queue=queue_name, on_message_callback=callback, auto_ack=True)channel.start_consuming()

RPC模式

RPC远程调用(Remote Procedure Call)模式其实就是使用消息队列处理请求的一种方式,通常请求接收到后会立即执行且多个请求是并行执行的,如果一次性来了太多请求,达到了服务端处理请求的瓶颈就会影响性能,但是如果使用消息队列的方式,最大的一点好处是可以不用立即处理请求,而是将请求放入消息队列,服务端只需要根据自己的状态从消息队列中获取并处理请求即可。

producer端:RPC模式的客户端(producer)需要使用到两个queue,一个用于发送request消息(此queue通常在服务端声明和创建),一个用于接收response消息。另外需要特别注意的一点是,需要为每个request消息指定一个uuid(correlation_id属性,类似请求id),用于识别返回的response消息是否属于对应的request。

  • 示例 rpc_client.py``````import pikaimport uuidclass FibonacciRpcClient(object): def __init__(self): self.connection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost')) self.channel = self.connection.channel() # 创建一个此客户端专用的queue,用于接收服务端发过来的消息 result = self.channel.queue_declare(queue='', exclusive=True) self.callback_queue = result.method.queue self.channel.basic_consume( queue=self.callback_queue, on_message_callback=self.on_response, auto_ack=True) def on_response(self, ch, method, props, body): # 判断接收到的response是否属于对应request if self.corr_id == props.correlation_id: self.response = body def call(self, n): self.response = None self.corr_id = str(uuid.uuid4()) # 为该消息指定uuid,类似于请求id self.channel.basic_publish( exchange='', routing_key='rpc_queue', # 将消息发送到该queue properties=pika.BasicProperties( reply_to=self.callback_queue, # 从该queue中取消息 correlation_id=self.corr_id, # 为此次消息指定uuid ), body=str(n)) while self.response is None: self.connection.process_data_events() return int(self.response)fibonacci_rpc = FibonacciRpcClient()print(" [x] Requesting fib(30)")response = fibonacci_rpc.call(30)print(" [.] Got %r" % response)

consumer端:服务端也需要使用到两个queue,一个接收request消息(通常由服务端创建),一个发送response消息(通常由客户端创建),需要特别注意,发送response消息时需要将对应request的uuid(correlation_id属性)赋上。

  • 示例 rpc_server.py``````import pikaconnection = pika.BlockingConnection( pika.ConnectionParameters(host='localhost'))channel = connection.channel()# 指定接收消息的queuechannel.queue_declare(queue='rpc_queue')def fib(n): if n == 0: return 0 elif n == 1: return 1 else: return fib(n - 1) + fib(n - 2)def on_request(ch, method, props, body): n = int(body) print(" [.] fib(%s)" % n) response = fib(n) ch.basic_publish(exchange='', # 使用默认交换机 routing_key=props.reply_to, # response发送到该queue properties=pika.BasicProperties( correlation_id=props.correlation_id), # 使用correlation_id让此response与请求消息对应起来 body=str(response)) ch.basic_ack(delivery_tag=method.delivery_tag)channel.basic_qos(prefetch_count=1)# 从rpc_queue中取消息,然后使用on_request进行处理channel.basic_consume(queue='rpc_queue', on_message_callback=on_request)print(" [x] Awaiting RPC requests")channel.start_consuming()

本文转载自: https://blog.csdn.net/al6nlee/article/details/130548197
版权归原作者 Al6n Lee 所有, 如有侵权,请联系我们删除。

“【RabbitMQ】安装及六种模式”的评论:

还没有评论