Kafka 在CentOS下安装

1、下载使用wget命令,远程下载kafkawget https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.8.1/kafka_2.12-2.8.1.tgz --no-check-certificate2、解压文件tar -zxvf ./kafka

RocketMQ的下载及安装以及历史和发展

2015年,阿里基于RocketMQ开发了阿里云上的Aliware MQ,Aliware MQ(Message Queue)是RocketMQ的商业版本,是阿里云商用的专业消息中间件,是企业级互联网架构的核心产品,基于高可用分布式集群技术,搭建了包括发布订阅、消息轨迹、资源统计、定时(延时)、监控报

从源码全面解析 ArrayBlockingQueue 的来龙去脉

并发编程在互联网技术使用如此广泛,几乎所有的后端技术面试官都要在并发编程的使用和原理方面对小伙伴们进行 360° 的刁难。作为一个在互联网公司面一次拿一次 Offer 的面霸,打败了无数竞争对手,每次都只能看到无数落寞的身影失望的离开,略感愧疚(请允许我使用一下夸张的修辞手法)。于是在一个寂寞难耐的

Apache Druid中Kafka配置远程代码执行漏洞(MPS-2023-6623)

Apache Druid 是一个高性能的数据分析引擎。Kafka Connect模块曾出现JNDI注入漏洞(CVE-2023-25194),近期安全研究人员发现Apache Druid由于支持从 Kafka 加载数据的实现满足其利用条件,攻击者可通过修改 Kafka 连接配置属性进行 JNDI 注入

Spring Boot 自定义kafka 消费者配置 ContainerFactory最佳实践

kafka 消费者配置,消费重试机制

深入解读Kafka:如何进行运维与监控,实现性能调优和故障排除

Kafka是由Apache Software Foundation开发的一款分布式流处理平台和消息队列系统可以处理大规模的实时数据流,具有高吞吐量、低延迟、持久性和可扩展性等优点常用于数据架构、数据管道、日志聚合、事件驱动等场景,对Kafka的运维和监控十分必要本文旨在介绍Kafka的运维和监控相关

Kafka如何配置内外网多ip访问

Kafka如何配置内外网多ip访问

kafka整理

kafka是apache旗下一款开源的顶级的消息队列的系统, 最早是来源于领英, 后期将其贡献给apache, 采用语言是scala.基于zookeeper, 启动kafka集群需要先启动zookeeper集群, 同时在zookeeper记录kafka相关的元数据kafka本质上就是消息队列的中间件

Kafka 安装、使用

kafka 安装,使用

单机版本 kafka-2.13版本和EFAK-3.0.1安装

单机版本 kafka-2.13版本和EFAK-3.0.1安装

Kafka学习--------Kafka Producer生产者发送消息流程详解

Kafka生产者发送消息流程详解。

Kafka吞吐量

⾸先Kafka从架构上说分为⽣产者Broker和消费者,每⼀块都进⾏了单独的优化,⽐如⽣产者快是因为数据的批量发送,Broker快是因为分区,分区解决了并发度的问题,⽽且⽂件是采取的顺序写的形式。顺序写就可以有效的减少磁盘寻址的时间其次它还采⽤了分段的概念,就是所谓的Segment,每⼀个Segme

kafka集群搭建

kafka集群

Kafka之分区副本与ISR

Kafka的Topic分区本质是一个用于存储Topic下的消息的日志,但是只存一份日志会因为机器损坏或其他原因导致消息丢失不可恢复,因此需要多个相同的日志作为备份,提高系统可用性,这些备份在kafka中被称为副本(replica)。kafka将分区的所有副本均匀的分配到所有broker上,并从这些副

kafka client for go

使用 sarama 开发 go 的 kafka client

python消息队列4种方法及使用场景

4.延迟任务:有时候我们需要延迟执行某个任务,例如在某个特定的时间执行某个任务,或者在某个特定的事件发生后执行某个任务。在消息队列中,生产者可以将消息发布到指定的通道,订阅者可以订阅这些通道,接收并处理消息。日志收集:当需要对分布式系统进行日志收集时,可以将日志信息放入 RabbitMQ 的消息队列

【Kafka】概述与集群部署

本文主要介绍了kafka的概述以及集群部署(含docker compose部署)

命令消费kafka报错(id: -1 rack: null) disconnected

WARN clients.NetworkClient: [Consumer clientId=consumer-console-consumer-52833-1, groupId=console-consumer-52833] Bootstrap broker xx.xx.xx.xx:9092 (i

Kafka:消费者消费失败处理-重试队列

Kafka:消费者消费失败处理-重试队列

kafka如何保证数据不丢失?

1或者all:生产者生产数据,既要保证leader保存成功,也要保证follower同步成功,继续发送下一批数据.同步模式:生产者生产一条数据,就保存一条数据,保存成功后,再生产下一条数据,能够保证数据不丢失,但是效率太低了。1:生产者生产数据,只保证leader保存成功,不管follower是否同

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈