MQ消息队列,以及RabbitMQ详细(中1)五种rabbitMQ实用模型

RabbitTemplate的主要作用是用来简化与RabbitMQ消息代理之间的通信过程。RabbitMQ是一种类似于消息队列的消息代理系统,可以实现应用程序之间的异步通信。使用RabbitTemplate,我们可以通过其提供的方法直接向RabbitMQ发送消息,而无需编写其他低层级的代码。这样可以

二百一十、Hive——Flume采集的JSON数据文件写入Hive的ODS层表后字段的数据残缺

Flume采集的JSON数据文件写入Hive的ODS层表后字段的数据残缺

Hive中的常用concat函数——concat函数、concat_ws函数和group_concat函数

Hive中的常用concat函数——concat函数、concat_ws函数和group_concat函数

Mac 安装ZooKeeper+kafka基本使用

ZooKeeper 为分布式系统提供了一种配置管理的服务:集中管理配置,即将全局配置信息保存在 ZooKeeper 服务中,方便进行修改和管理,省去了手动拷贝配置的过程,同时还保证了可靠和一致性。

Linux环境下安装部署单机RabbitMQ(离线)

本文档适用于在Linux系统下部署单体RabbitMQ,是在无网的情况下部署的。涉及的任何操作都是通过手动下载安装包然后上传到服务器上进行安装,因此也遇到一些问题,并在此文档中记录。实际操作环境:Kylin V10,实际操作的Linux系统是银河麒麟。根据我安装的过程,觉得适用于所有Linux的操作

《PySpark大数据分析实战》-02.了解Hadoop

大家好!今天为大家分享的是《PySpark大数据分析实战》第1章第2节的内容:了解Hadoop。

Docker—共享应用程序

Docker—共享应用程序

rabbitMQ发布确认-交换机不存在或者无法抵达队列的缓存处理

rabbitMQ在发送消息时,会出现交换机不存在(交换机名字写错等消息),这种情况如何会退给生产者重新处理?【交换机层】生产者发送消息时,消息未送达到指定的队列,如何消息回退?

​理解 Spark 写入 API 的数据处理能力

这张图解释了 Apache Spark DataFrame 写入 API 的流程。它始于对写入数据的 API 调用,支持的格式包括 CSV、JSON 或 Parquet。流程根据选择的保存模式(追加、覆盖、忽略或报错)而分岔。每种模式执行必要的检查和操作,例如分区和数据写入处理。流程以数据的最终写入

Kafka常见面试问题

Apache Kafka是一种分布式流处理平台,它使用分布式复制协议来实现高可用性和容错性。在Kafka中,每个主题(topic)都有一个或多个分区(partition),每个分区都有一组副本(replica),其中一个是主副本(leader),其余的是从副本(follower)。主副本负责处理来自

7. Hive解析JSON字符串、JSON数组

说明:将 字符串A中 符合 java正则表达式B 的部分替换为C。注意,在有些情况下要使用转义字符,类似oracle中的regexp_replace函数。解析出其中的website、name。当我们数据的结构如下,我们想要获取的数据为,

PySpark中DataFrame的join操作

常见的类型有 “inner”, “outer”, “left_outer”, “right_outer”, “leftsemi”。在进行 JOIN 操作时,如果两个 DataFrame 有相同的列名,可能需要使用别名(alias)来避免列名冲突。on 参数是一个字符串(单列名)或一个列表(多列名)或

HBase之HBCK2

hbase集群修复工具

Kafka--从Zookeeper数据理解Kafka集群工作机制

​ Kafka其实天生就是为了集群而生,即使单个节点运行Kafka,他其实也是作为一个集群运行的。而Kafka为了保证在各种网络抽风,服务器不稳定等复杂情况下,保证集群的高性能,高可用,高可扩展三高,做了非常多的设计。而这一章节,其实是从可见的Zookeeper注册信息为入口,理解Kafka的核心集

五、Eureka服务注册、续约、剔除、下线源码分析

总结:当 eureka 启动的时候,会向我们指定的 serviceUrl 发送请求,把自己节点的数据以post请求的方式,数据以json 形式发送过去。当返回的状态码为 204 的时候,表示注册成功。重要的类:DiscoveryClient 里面的 register()方法完后注册的总体构造Abst

Hadoop集群搭建详细步骤(只有JDK和Hadoop)

Hadoop集群搭建详细步骤,跟着尚硅谷做的,直接用root用户也可以

SpringBoot 2.2.5 整合RabbitMQ,实现Topic主题模式的消息发送及消费

【代码】SpringBoot 2.2.5 整合RabbitMQ,实现Topic主题模式的消息发送及消费。

【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办

执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(hdfs namenode -format),这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变。打开name目录

Spring Boot 整合kafka:生产者ack机制和消费者AckMode消费模式、手动提交ACK

kafka生产者ack机制和消费者AckMode消费模式、手动提交ACK

GoLong的学习之路,进阶,RabbitMQ (消息队列)

快有一周没有写博客了。前面几天正在做项目。正好,项目中需要MQ(消息队列),这里我就补充一下我对mq的理解。其实在学习java中的时候,自己也仿照RabbitMQ自己实现了一个单机的mq,但是mq其中一个特点也就是,分布式我在项目中没有涉及。这里我用go语言将RabbitMQ的操作进行一次整理。

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈