【高级应用篇】深入Spring Boot与RabbitMQ:构建可靠的微服务通信
在微服务架构中,消息队列作为异步通信与服务解耦的关键组件,发挥着不可替代的作用。本文详尽探索RabbitMQ的高级特性,包括消息确认、持久化、优先级、死信队列、TTL以及发布确认机制,展示如何利用这些特性增强Spring Boot应用与RabbitMQ的集成,实现更高效、更稳健的微服务通信。通过讲解
SpringCloud微服务实践1|Eureka实践,nacos实践,Ribbon实践
通过IRule接口 选择某个服务实例----IRule接口的实现类,是不同的负载均衡策略。通过修改其参数可以实现不同的策略ribbon:NFLoadBalancerRuleClassName: com.alibaba.cloud.nacos.ribbon.NacosRule # 负载均衡规则。
RabbitMQ发布确认及交换机类型
当生产者(Producer)启用发布确认功能后,每次发送消息到RabbitMQ时,都会获得一个唯一的序列号(delivery tag),并从1开始递增。一旦消息被成功路由到至少一个匹配的队列,并且满足持久化条件(如果已配置),RabbitMQ会向生产者发送一个包含已确认消息序列号的basic.ack
HIVE基本数据类型
HIVE基本数据类型
Kafka的简介、架构、安装使用、生产者、消费者、高吞吐、持久化及与Flume整合
Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者在网站中的所有动作流数据。
【大数据·hadoop】在hdfs上运行shell基本常用命令
在Hadoop生态系统中,supergroup 是一个默认的用户组,通常与HDFS的超级用户(即 Hadoop 的管理员账户,类似于 Unix 系统中的 root 用户)关联。超级用户和属于 supergroup 组的用户通常有着对HDFS上所有文件和目录的全权限,这包括读取、写入和执行权限。
大数据面试题之Spark(7)
大数据面试题之Spark(7)
使用 Docker Compose 部署 RabbitMQ 的一些经验与踩坑记录
RabbitMQ 是一个功能强大的开源消息队列系统,它实现了高效的消息通信和异步处理。本文主要介绍其基于 Docker-Compose 的部署安装和一些使用的经验。
hadoop 单节点模式安装
http://localhost:9870/,或http://127.0.0.1:9870/,或http://192.168.1.253:9870/;链接地址为:https://www.oracle.com/java/technologies/downloads/
RabbitMQ工作模式(3) - 订阅模式
在这种模式中,消息发送者(发布者)将消息发送到一个交换机(exchange),交换机将消息广播到所有与之绑定的队列,然后消费者(订阅者)可以从这些队列中接收消息。这里方便区分,新建了文件SubConfig,每个工作模式创建队列和交换机的过程区分开,全都配置到RabbitmqConfig文件中也是可以
FlinkX安装与使用
FlinkX是在袋鼠云内部广泛使用的基于flink的分布式离线和实时的数据同步框架,实现了多种异构数据源之间高效的数据迁移。FlinkX是一个数据同步工具,既可以采集静态的数据,比如MySQL,HDFS等,也可以采集实时变化的数据,比如MySQL ,binlog,Kafka等。
RabbitMQ学习笔记:节点名称详解、rabbitmq-server、及rabbitmq-env.conf
作者简介:大家好,我是哥,前中兴通讯、美团架构师,现某互联网公司联系qq:184480602,加我进群,大家一起学习,一起进步,一起对抗互联网寒冬学习必须往深处挖,挖的越深,基础越扎实!
IT行业近十几年的发展史,从web1.0到3.0,大数据、元宇宙、比特币,区块链、AIGC....到底什么是出路
IT行业近十几年的发展史,从web1.0到web3.0,大数据、元宇宙、比特币,以太坊、NFT、区块链、AIGC....到底什么是出路?IT的赛道到底在哪里
云原生之使用Docker部署RabbitMQ消息中间件
云原生之使用Docker部署RabbitMQ消息中间件
zookeeper+kafka消息队列群集部署
消息(Message)是指在应用间传送的数据。消息可以非常简单,比如只包含文本字符串,也可以更复杂,可能包含嵌入对象。消息队列(Message Queue)是一种应用间的通信方式,消息发送后可以立即返回,由消息系统来确保消息的可靠传递。消息发布者只管把消息发布到MQ 中而不用管谁来取,消息使用者只管
Flink 数据源
在 Flink 中,数据源(Source)是其中一个核心组件,负责从各种来源读取数据供 Flink 程序处理。
Flink 角色指南:了解各组件的职责与功能
Flink 是一个分布式流处理框架,它的架构由多个角色组成,每个角色在系统中都有特定的职责。
Hive 函数
UDF(User-Defined-Function) 普通函数,一进一出;例如:round 这样的函数;UDAF(User-Defined Aggregation Function)聚合函数,多进一出;例如:count、sum 这样的函数;UDTF(User-Defined Table-Genera
kafka-消费者-消费异常处理(SpringBoot整合Kafka)
kafka-消费者-消费异常处理。