0


大数据技术之 Kafka

大数据技术之 Kafka

文章目录

第 1 章 Kafka 概述

1.1 定义

image-20240120115727501

1.2 消息队列

目 前 企 业 中 比 较 常 见 的 消 息 队 列 产 品 主 要 有 Kafka 、 ActiveMQ 、 RabbitMQ 、RocketMQ 等。

在大数据场景主要采用 Kafka 作为消息队列。在 JavaEE 开发中主要采用 ActiveMQ、RabbitMQ、RocketMQ。

1.2.1 传统消息队列的应用场景

传统的消息队列的主要应用场景包括:缓存/消峰、解耦和异步通信。

缓冲/消峰

image-20240120115912219

解耦

解耦:允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。

image-20240120115944469

异步通信

异步通信

:允许用户把一个消息放入队列,但并不立即处理它,然后在需要的时候再去处理它们。

image-20240120120038065

1.2.2 消息队列的两种模式

1)点对点模式

  • 消费者主动拉取数据,消息收到后清除消息image-20240120120149036

2)发布/订阅模式

  • 可以有多个topic主题(浏览、点赞、收藏、评论等)
  • 消费者消费数据之后,不删除数据
  • 每个消费者相互独立,都可以消费到数据

image-20240120120351557

1.3 Kafka 基础架构

image-20240120120538092

(1)Producer:消息生产者,就是向 Kafka broker 发消息的客户端。
(2)Consumer:消息消费者,向 Kafka broker 取消息的客户端。
(3)Consumer Group(CG):消费者组,由多个 consumer 组成。

消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。

所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。

(4)Broker:一台 Kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个broker 可以容纳多个 topic。

(5)Topic:可以理解为一个队列,

生产者和消费者面向的都是一个 topic

(6)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,

一个 topic 可以分为多个 partition

,每个 partition 是一个

有序的队列

(7)Replica:副本。一个 topic 的每个分区都有若干个副本,一个

Leader

和若干个

Follower

(8)Leader:每个分区多个

副本的“主”

,生产者发送数据的对象,以及消费者消费数据的对象都是 Leader。

(9)Follower:每个分区

多个副本中的“从”

,实时从 Leader 中同步数据,保持和Leader 数据的同步。Leader 发生故障时,某个 Follower 会成为新的 Leader。

第 2 章 Kafka 快速入门

2.1 安装部署

2.1.1 集群规划

hadoop102hadoop103hadoop104zkzkzkkafkakafkakafka

2.1.2 集群部署

0)官方下载地址:http://kafka.apache.org/downloads.html

1)解压安装包

2.12表示scale语言版本,3.0.0表示kafka的版本

image-20240120141822791

[zhao@hadoop102 software]$ tar-zxvf kafka_2.12-3.0.0.tgz -C /opt/module/

2)修改解压后的文件名称

[zhao@hadoop102 module]$ mv kafka_2.12-3.0.0/ kafka 

3)进入到/opt/module/kafka 目录,修改配置文件

[zhao@hadoop102 kafka]$ cd config/
[zhao@hadoop102 config]$ vim server.properties

输入以下内容:

#broker 的全局唯一编号,不能重复,只能是数字。
broker.id=0
。。。。。。
#kafka 运行日志(数据)存放的路径,路径不需要提前创建,kafka 自动帮你创建,可以配置多个磁盘路径,路径与路径之间可以用","分隔
log.dirs=/opt/module/kafka/datas
。。。。。
#配置连接 Zookeeper 集群地址(在 zk 根目录下创建/kafka,方便管理)
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka

4)分发安装包

[zhao@hadoop102 module]$ xsync kafka/

5)分别在 hadoop103 和 hadoop104 上修改配置文件/opt/module/kafka/config/server.properties中的 broker.id=1、broker.id=2

注:broker.id 不得重复,整个集群中唯一。

[zhao@hadoop103 module]$ vim kafka/config/server.properties
修改:
# The id of the broker. This must be set to a unique integer for each broker.broker.id=1[zhao@hadoop104 module]$ vim kafka/config/server.properties
修改:
# The id of the broker. This must be set to a unique integer for each broker.broker.id=2

6)配置环境变量

(1)在/etc/profile.d/my_env.sh 文件中增加 kafka 环境变量配置

[zhao@hadoop102 module]$ sudovim /etc/profile.d/my_env.sh

增加如下内容:

#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin

(2)刷新一下环境变量。

[zhao@hadoop102 module]$ source /etc/profile

(3)分发环境变量文件到其他节点,并 source。

[zhao@hadoop102 module]$ sudo /home/zhao/bin/xsync /etc/profile.d/my_env.sh
[zhao@hadoop103 module]$ source /etc/profile
[zhao@hadoop104 module]$ source /etc/profile

7)启动集群

(1)先启动 Zookeeper 集群,然后启动 Kafka。

[zhao@hadoop102 kafka]$ zk.sh start

(2)依次在 hadoop102、hadoop103、hadoop104 节点上启动 Kafka。

[zhao@hadoop102 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties
[zhao@hadoop103 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties
[zhao@hadoop104 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties

注意:配置文件的路径要能够到 server.properties。

8)关闭集群

[zhao@hadoop102 kafka]$ bin/kafka-server-stop.sh
[zhao@hadoop103 kafka]$ bin/kafka-server-stop.sh
[zhao@hadoop104 kafka]$ bin/kafka-server-stop.sh

2.1.3 集群启停脚本

1)在/home/zhao/bin 目录下创建文件 kf.sh 脚本文件

[zhao@hadoop102 bin]$ vim kf.sh

脚本如下:

#! /bin/bashcase$1in"start"){foriin hadoop102 hadoop103 hadoop104
    doecho" --------启动 $i Kafka-------"ssh$i"/opt/module/kafka/bin/kafka-server-start.sh -daemon /opt/module/kafka/config/server.properties"done};;"stop"){foriin hadoop102 hadoop103 hadoop104
    doecho" --------停止 $i Kafka-------"ssh$i"/opt/module/kafka/bin/kafka-server-stop.sh "done};;esac

2)添加执行权限

[zhao@hadoop102 bin]$ chmod +x kf.sh

3)启动集群命令

[zhao@hadoop102 ~]$ kf.sh start

4)停止集群命令s

[zhao@hadoop102 ~]$ kf.sh stop

注意:停止 Kafka 集群时,一定要等 Kafka 所有节点进程全部停止后再停止 Zookeeper集群。因为 Zookeeper 集群当中记录着 Kafka 集群相关信息,Zookeeper 集群一旦先停止,Kafka 集群就没有办法再获取停止进程的信息,只能手动杀死 Kafka 进程了。

2.2 Kafka 命令行操作

Kafka 基础架构

image-20240120141940476

2.2.1 主题命令行操作

1)查看操作主题命令参数

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh

参数描述–bootstrap-server <String: server toconnect to>连接的 Kafka Broker 主机名称和端口号。–topic <String: topic>操作的 topic 名称。–create创建主题。–delete删除主题。–alter修改主题。–list查看所有主题。–describe查看主题详细描述。–partitions <Integer: # of partitions>设置分区数。–replication-factor<Integer: replication factor>设置分区副本。–config <String: name=value>更新系统默认的配置。
2)查看当前服务器中的所有 topic

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --list

3)创建 first topic

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create--partitions1 --replication-factor 3--topic first

选项说明:

–topic 定义 topic 名

–replication-factor 定义副本数

–partitions 定义分区数

4)查看 first 主题的详情

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic first

5)修改分区数(注意:分区数只能增加,不能减少)

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --alter--topic first --partitions3

6)再次查看 first 主题的详情

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic first

image-20240120141211240

7)删除 topic(自行演示)

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --delete--topic first

2.2.2 生产者命令行操作

1)查看操作生产者命令参数

[zhao@hadoop102 kafka]$ bin/kafka-console-producer.sh

参数描述–bootstrap-server <String: server toconnect to>连接的 Kafka Broker 主机名称和端口号。–topic <String: topic>操作的 topic 名称。
2)发送消息

[zhao@hadoop102 kafka]$ bin/kafka-console-producer.sh --bootstrap-server hadoop102:9092 --topic first
>hello world
>zhao zhao

2.2.3 消费者命令行操作

1)查看操作消费者命令参数

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh

参数描述–bootstrap-server <String: server toconnect to>连接的 Kafka Broker 主机名称和端口号。–topic <String: topic>操作的 topic 名称。–from-beginning从头开始消费。–group <String: consumer group id>指定消费者组名称。
2)消费消息

(1)消费 first 主题中的数据。

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

参数描述–bootstrap-server <String: server toconnect to>连接的 Kafka Broker 主机名称和端口号。–topic <String: topic>操作的 topic 名称。–from-beginning从头开始消费。–group <String: consumer group id>指定消费者组名称。
2)消费消息

(1)消费 first 主题中的数据。

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

(2)把主题中所有的数据都读取出来(包括历史数据)。

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --from-beginning --topic first

第 3 章 Kafka 生产者

3.1 生产者消息发送流程

3.1.1 发送原理

在消息发送的过程中,涉及到了两个线程——

main 线程和 Sender 线程

。在 main 线程中创建了一个

双端队列 RecordAccumulator

。main 线程将消息发送给 RecordAccumulator,Sender 线程不断从 RecordAccumulator 中拉取消息发送到 Kafka Broker。

发送流程

image-20240120164305017

3.1.2 生产者重要参数列表

参数名称描述bootstrap.servers生 产 者 连 接 集 群 所 需 的 broker 地 址 清 单 。 例 如hadoop102:9092,hadoop103:9092,hadoop104:9092,可以设置 1 个或者多个(设置多个为了防止某个机器挂掉连不上集群),中间用逗号隔开。注意这里并非需要所有的 broker 地址,因为生产者从给定的 broker里查找到其他 broker 信息。key.serializer 和 value.serializer指定发送消息的 key 和 value 的序列化类型。一定要写全类名。buffer.memoryRecordAccumulator 缓冲区总大小,

默认 32m。

batch.size缓冲区一批数据最大值,默认 16k。适当增加该值,可以提高吞吐量,但是如果该值设置太大,会导致数据传输延迟增加。linger.mss如果数据迟迟未达到 batch.size,sender 等待linger.time
之后就会发送数据。单位 ms,

默认值是 0ms

,表示没有延迟。生产环境建议该值大小为 5-100ms 之间。acks0:生产者发送过来的数据,不需要等数据落盘应答。
1:生产者发送过来的数据,Leader 收到数据后应答。
-1(all):生产者发送过来的数据,Leader+和 isr 队列里面的所有节点收齐数据后应答。

默认值是-1,-1 和all 是等价的。

max.in.flight.requests.per.connection允许最多没有返回 ack 的次数,默认为 5,开启幂等性要保证该值是 1-5 的数字。retries当消息发送出现错误的时候,系统会重发消息。retries
表示重试次数。

默认是 int 最大值,2147483647。

如果设置了重试,还想保证消息的有序性,需要设置MAX_IN_FLIGHT_REQUESTS_PER_CONNECTION=1否则在重试此失败消息的时候,其他的消息可能发送成功了。retry.backoff.ms两次重试之间的时间间隔,默认是 100ms。enable.idempotence是否开启幂等性,默认 true,开启幂等性。compression.type生产者发送的所有数据的压缩方式。

默认是 none

,也就是不压缩。支持压缩类型:

none、gzip、snappy、lz4 和 zstd。

3.2 异步发送 API

3.2.1 普通异步发送

1)需求:创建 Kafka 生产者,采用异步的方式发送到 Kafka Broker

异步发送流程

image-20240120164857249

2)代码编写

(1)创建工程 kafka

(2)导入依赖

<dependencies><dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>3.0.0</version></dependency></dependencies>

(3)创建包名:com.zhao.kafka.producer

(4)编写不带回调函数的 API 代码

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;publicclassCustomProducer{publicstaticvoidmain(String[] args)throwsInterruptedException{// 1. 创建 kafka 生产者的配置对象Properties properties =newProperties();// 2. 给 kafka 配置对象添加配置信息:bootstrap.servers
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key,value 序列化(必须):key.serializer,value.serializer
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");// 3. 创建 kafka 生产者对象KafkaProducer<String,String> kafkaProducer =newKafkaProducer<String,String>(properties);// 4. 调用 send 方法,发送消息for(int i =0; i <5; i++){
            kafkaProducer.send(newProducerRecord<>("first","zhao "+ i));}// 5. 关闭资源
        kafkaProducer.close();}}

测试:

①在 hadoop102 上开启 Kafka 消费者。

[zhao@hadoop103 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

②在 IDEA 中执行代码,观察 hadoop102 控制台中是否接收到消息。

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

zhao 0
zhao 1
zhao 2
zhao 3
zhao 4

3.2.2 带回调函数的异步发送

回调函数会在 producer 收到 ack 时调用,为异步调用,该方法有两个参数,分别是元数据信息(RecordMetadata)和异常信息(Exception),如果 Exception 为 null,说明消息发送成功,如果 Exception 不为 null,说明消息发送失败。

带回调函数的异步发送流程

image-20240120165509033

注意:消息发送失败会自动重试,不需要我们在回调函数中手动重试。

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;publicclassCustomProducerCallback{publicstaticvoidmain(String[] args)throwsInterruptedException{// 1. 创建 kafka 生产者的配置对象Properties properties =newProperties();// 2. 给 kafka 配置对象添加配置信息:bootstrap.servers
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key,value 序列化(必须):key.serializer,value.serializer
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");// 3. 创建 kafka 生产者对象KafkaProducer<String,String> kafkaProducer =newKafkaProducer<String,String>(properties);// 4. 调用 send 方法,发送消息for(int i =0; i <5; i++){
            kafkaProducer.send(newProducerRecord<>("first","zhao "+ i),newCallback(){// 该方法在 Producer 收到 ack 时调用,为异步调用@OverridepublicvoidonCompletion(RecordMetadata metadata,Exception exception){if(exception ==null){// 没有异常,输出信息到控制台System.out.println(" 主题:"+ metadata.topic()+"->"+"分区:"+ metadata.partition());}else{// 出现异常打印
                        exception.printStackTrace();}}});}// 5. 关闭资源
        kafkaProducer.close();}}

测试:

①在 hadoop102 上开启 Kafka 消费者。

[zhao@hadoop103 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

②在 IDEA 中执行代码,观察 hadoop102 控制台中是否接收到消息。

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

zhao 0
zhao 1
zhao 2
zhao 3
zhao 4

③在 IDEA 控制台观察回调信息。

主题:first->分区:0
主题:first->分区:0
主题:first->分区:1
主题:first->分区:1
主题:first->分区:1

3.3 同步发送 API

同步发送流程

image-20240120170007626

只需在异步发送的基础上,再调用一下

get()

方法即可。

importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerConfig;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;importjava.util.concurrent.ExecutionException;publicclassCustomProducerSync{publicstaticvoidmain(String[] args)throwsInterruptedException,ExecutionException{// 1. 创建 kafka 生产者的配置对象Properties properties =newProperties();// 2. 给 kafka 配置对象添加配置信息
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key,value 序列化(必须):key.serializer,value.serializer
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());// 3. 创建 kafka 生产者对象KafkaProducer<String,String>  kafkaProducer =newKafkaProducer<String,String>(properties);// 4. 调用 send 方法,发送消息for(int i =0; i <10; i++){// 异步发送 默认//kafkaProducer.send(new ProducerRecord<>("first","kafka" + i));// 同步发送
            kafkaProducer.send(newProducerRecord<>("first","kafka"+ i)).get();}// 5. 关闭资源
        kafkaProducer.close();}}

测试:

①在 hadoop102 上开启 Kafka 消费者。

[zhao@hadoop103 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

②在 IDEA 中执行代码,观察 hadoop102 控制台中是否接收到消息。

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

zhao 0
zhao 1
zhao 2
zhao 3
zhao 4

3.4 生产者分区

3.4.1 分区好处

(1)

便于合理使用存储资源

,每个Partition在一个Broker上存储,可以把海量的数据按照分区切割成一
块一块数据存储在多台Broker上。合理控制分区的任务,可以实现

负载均衡

的效果。
(2)

提高并行度

,生产者可以以分区为单位

发送数据

;消费者可以以分区为单位进行

消费数据

image-20240122145147497

3.4.2 生产者发送消息的分区策略

1)默认的分区器 DefaultPartitioner

在 IDEA 中 ctrl +n,全局查找 DefaultPartitioner。

/**
* The default partitioning strategy:
* <ul>
* <li>If a partition is specified in the record, use it
* <li>If no partition is specified but a key is present choose a partition based on a hash of the key
* <li>If no partition or key is present choose the sticky partition that changes when the batch is full.
*
* See KIP-480 for details about sticky partitioning.
*/publicclassDefaultPartitionerimplementsPartitioner{
    … …
}

image-20240122145326834

2)案例一

将数据发往指定 partition 的情况

下,例如,将所有数据发往分区 1 中。

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.*;importjava.util.Properties;publicclassCustomProducerCallbackPartitions{publicstaticvoidmain(String[] args){// 1. 创建 kafka 生产者的配置对象Properties properties =newProperties();// 2. 给 kafka 配置对象添加配置信息
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key,value 序列化(必须):key.serializer,value.serializer
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());KafkaProducer<String,String> kafkaProducer  =newKafkaProducer<>(properties);for(int i =0; i <5; i++){// 指定数据发送到 1 号分区,key 为空(IDEA 中 ctrl + p 查看参数)
            kafkaProducer.send(newProducerRecord<>("first",1,"","zhao "+ i),newCallback(){@OverridepublicvoidonCompletion(RecordMetadata metadata,Exception e){if(e ==null){System.out.println("主题:"+metadata.topic()+"->"+"分区:"+ metadata.partition());}else{
                        e.printStackTrace();}}});}
        kafkaProducer.close();}}

测试:

①在 hadoop102 上开启 Kafka 消费者

[zhao@hadoop103 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

②在 IDEA 中执行代码,观察 hadoop102 控制台中是否接收到消息。

[zhao@hadoop102 kafka]$bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

zhao 0
zhao 1
zhao 2
zhao 3
zhao 4

③在 IDEA 控制台观察回调信息。

主题:first->分区:1
主题:first->分区:1
主题:first->分区:1
主题:first->分区:1
主题:first->分区:1

3)案例二

没有指明 partition 值但有 key 的情况下

,将 key 的 hash 值与 topic 的 partition 数进行取
余得到 partition 值。

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;publicclassCustomProducerCallback{publicstaticvoidmain(String[] args)throwsInterruptedException{// 1. 创建 kafka 生产者的配置对象Properties properties =newProperties();// 2. 给 kafka 配置对象添加配置信息:bootstrap.servers
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key,value 序列化(必须):key.serializer,value.serializer
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");// 3. 创建 kafka 生产者对象KafkaProducer<String,String> kafkaProducer =newKafkaProducer<String,String>(properties);// 4. 调用 send 方法,发送消息for(int i =0; i <5; i++){// 依次指定 key 值为 a,b,f ,数据 key 的 hash 值与 3 个分区求余,分别发往 1、2、0
            kafkaProducer.send(newProducerRecord<>("first","a","zhao "+ i),newCallback(){// 该方法在 Producer 收到 ack 时调用,为异步调用@OverridepublicvoidonCompletion(RecordMetadata metadata,Exception exception){if(exception ==null){// 没有异常,输出信息到控制台System.out.println(" 主题:"+ metadata.topic()+"->"+"分区:"+ metadata.partition());}else{// 出现异常打印
                        exception.printStackTrace();}}});}// 5. 关闭资源
        kafkaProducer.close();}}

测试:

①key="a"时,在控制台查看结果。

主题:first->分区:1
主题:first->分区:1
主题:first->分区:1
主题:first->分区:1
主题:first->分区:1

②key="b"时,在控制台查看结果。

主题:first->分区:2
主题:first->分区:2
主题:first->分区:2
主题:first->分区:2
主题:first->分区:2

③key="f"时,在控制台查看结果。

主题:first->分区:0
主题:first->分区:0
主题:first->分区:0
主题:first->分区:0
主题:first->分区:0

3.4.3 自定义分区器

如果研发人员可以根据企业需求,自己重新实现分区器。

1)需求

例如我们实现一个分区器实现,发送过来的数据中如果包含 zhao,就发往 0 号分区,不包含 zhao,就发往 1 号分区。

2)实现步骤

(1)定义类实现 Partitioner 接口。

(2)重写 partition()方法。

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.Partitioner;importorg.apache.kafka.common.Cluster;importjava.util.Map;/**
* 1. 实现接口 Partitioner
* 2. 实现 3 个方法:partition,close,configure
* 3. 编写 partition 方法,返回分区号
*/publicclassMyPartitionerimplementsPartitioner{/**
    * 返回信息对应的分区
    * @param topic 主题
    * @param key 消息的 key
    * @param keyBytes 消息的 key 序列化后的字节数组
    * @param value 消息的 value
    * @param valueBytes 消息的 value 序列化后的字节数组
    * @param cluster 集群元数据可以查看分区信息
    * @return
    */@Overridepublicintpartition(String topic,Object key,byte[] keyBytes,Object value,byte[] valueBytes,Cluster cluster){// 获取消息String msgValue = value.toString();// 创建 partitionint partition;// 判断消息是否包含 zhaoif(msgValue.contains("zhao")){
            partition =0;}else{
            partition =1;}// 返回分区号return partition;}// 关闭资源@Overridepublicvoidclose(){}// 配置方法@Overridepublicvoidconfigure(Map<String,?> configs){}}

(3)使用分区器的方法,在生产者的配置中添加分区器参数。

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;publicclassCustomProducerCallbackPartitions{publicstaticvoidmain(String[] args)throwsInterruptedException{Properties properties =newProperties();
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");// 添加自定义分区器
        properties.put(ProducerConfig.PARTITIONER_CLASS_CONFIG,"com.zhao.kafka.producer.MyPartitioner");KafkaProducer<String,String> kafkaProducer =newKafkaProducer<String,String>(properties);for(int i =0; i <5; i++){
            kafkaProducer.send(newProducerRecord<>("first","zhao "+ i),newCallback(){@OverridepublicvoidonCompletion(RecordMetadata metadata,Exception exception){if(exception ==null){System.out.println(" 主题:"+ metadata.topic()+"->"+"分区:"+ metadata.partition());}else{
                        exception.printStackTrace();}}});}
        kafkaProducer.close();}}

(4)测试

①在 hadoop102 上开启 Kafka 消费者。ss

[zhao@hadoop103 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

②在 IDEA 控制台观察回调信息。

主题:first->分区:0
主题:first->分区:0
主题:first->分区:0
主题:first->分区:0
主题:first->分区:0

3.5 生产经验——生产者如何提高吞吐量

image-20240122165512543

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;publicclassCustomProducerParameters{publicstaticvoidmain(String[] args)throwsInterruptedException{// 1. 创建 kafka 生产者的配置对象Properties properties =newProperties();// 2. 给 kafka 配置对象添加配置信息:bootstrap.servers
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key,value 序列化(必须):key.serializer,value.serializer
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");// batch.size:批次大小,默认 16K
        properties.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);// linger.ms:等待时间,默认 0
        properties.put(ProducerConfig.LINGER_MS_CONFIG,1);// RecordAccumulator:缓冲区大小,默认 32M:buffer.memory
        properties.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);// compression.type:压缩,默认 none,可配置值 gzip、snappy、lz4 和 zstd
        properties.put(ProducerConfig.COMPRESSION_TYPE_CONFIG,"snappy");// 3. 创建 kafka 生产者对象KafkaProducer<String,String> kafkaProducer =newKafkaProducer<String,String>(properties);// 4. 调用 send 方法,发送消息for(int i =0; i <5; i++){
            kafkaProducer.send(newProducerRecord<>("first","zhao "+ i));}// 5. 关闭资源
        kafkaProducer.close();}}

测试:

①在 hadoop102 上开启 Kafka 消费者。

[zhao@hadoop103 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

②在 IDEA 中执行代码,观察 hadoop102 控制台中是否接收到消息。

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

zhao 0
zhao 1
zhao 2
zhao 3
zhao 4

3.6 生产经验——数据可靠性

0)回顾发送流程

image-20240122205408381

1)ack 应答原理

ACK应答级别

image-20240122205505804

image-20240122205709456

image-20240122210752767

2)代码配置

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;publicclassCustomProducerAck{publicstaticvoidmain(String[] args)throwsInterruptedException{// 1. 创建 kafka 生产者的配置对象Properties properties =newProperties();// 2. 给 kafka 配置对象添加配置信息:bootstrap.servers
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key,value 序列化(必须):key.serializer,value.serializer
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");// 设置 acks
        properties.put(ProducerConfig.ACKS_CONFIG,"all");// 重试次数 retries,默认是 int 最大值,2147483647
        properties.put(ProducerConfig.RETRIES_CONFIG,3);// 3. 创建 kafka 生产者对象KafkaProducer<String,String> kafkaProducer =newKafkaProducer<String,String>(properties);// 4. 调用 send 方法,发送消息for(int i =0; i <5; i++){
            kafkaProducer.send(newProducerRecord<>("first","zhao "+ i));}// 5. 关闭资源
        kafkaProducer.close();}}

image-20240217155329615

3.7 生产经验——数据去重

3.7.1 数据传递语义

image-20240122211130156

3.7.2 幂等性

1)幂等性原理

image-20240122211235831

2)如何使用幂等性

开启参数

enable.idempotence

默认为 true,false 关闭。

3.7.3 生产者事务

1)Kafka 事务原理

image-20240122211400239

2)Kafka 的事务一共有如下 5 个 API

// 1 初始化事务
void initTransactions();

// 2 开启事务
void beginTransaction() throws ProducerFencedException;

// 3 在事务内提交已经消费的偏移量(主要用于消费者)
void sendOffsetsToTransaction(Map<TopicPartition, OffsetAndMetadata> offsets,String consumerGroupId) throws ProducerFencedException;
// 4 提交事务
void commitTransaction() throws ProducerFencedException;

// 5 放弃事务(类似于回滚事务的操作)
void abortTransaction() throws ProducerFencedException;

3)单个 Producer,使用事务保证消息的仅一次发送

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;publicclassCustomProducerAck{publicstaticvoidmain(String[] args)throwsInterruptedException{// 1. 创建 kafka 生产者的配置对象Properties properties =newProperties();// 2. 给 kafka 配置对象添加配置信息:bootstrap.servers
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key,value 序列化(必须):key.serializer,value.serializer
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");// 设置事务 id(必须),事务 id 任意起名
        properties.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG,"transaction_id_0");// 3. 创建 kafka 生产者对象KafkaProducer<String,String> kafkaProducer =newKafkaProducer<String,String>(properties);// 初始化事务
        kafkaProducer.initTransactions();// 开启事务
        kafkaProducer.beginTransaction();try{// 4. 调用 send 方法,发送消息for(int i =0; i <5; i++){// 发送消息
                kafkaProducer.send(newProducerRecord<>("first","zhao "+ i));}// int i = 1 / 0;// 提交事务
            kafkaProducer.commitTransaction();}catch(Exception e){// 终止事务
            kafkaProducer.abortTransaction();}finally{// 5. 关闭资源
            kafkaProducer.close();}}}

3.8 生产经验——数据有序

image-20240122212445737

3.9 生产经验——数据乱序

image-20240122212513301

第 4 章 Kafka Broker

4.1 Kafka Broker 工作流程

4.1.1 Zookeeper 存储的 Kafka 信息

(1)启动 Zookeeper 客户端。

[zhao@hadoop102 zookeeper-3.5.7]$ bin/zkCli.sh

(2)通过 ls 命令可以查看 kafka 相关信息。

[zk: localhost:2181(CONNECTED)2]ls /kafka

Zookeeper中存储的Kafka 信息

image-20240122214537100

zookeeper可视化工具:prettyZoo

4.1.2 Kafka Broker 总体工作流程

image-20240122220730987

1)模拟 Kafka 上下线,Zookeeper 中数据变化

(1)查看/kafka/brokers/ids 路径上的节点。

[zk: localhost:2181(CONNECTED)2]ls /kafka/brokers/ids

[0, 1, 2]

(2)查看/kafka/controller 路径上的数据。

[zk: localhost:2181(CONNECTED)15] get /kafka/controller

{"version":1,"brokerid":0,"timestamp":"1637292471777"}

(3)查看/kafka/brokers/topics/first/partitions/0/state 路径上的数据。

[zk: localhost:2181(CONNECTED)16] get /kafka/brokers/topics/first/partitions/0/state

{"controller_epoch":24,"leader":0,"version":1,"leader_epoch":18,"
isr":[0,1,2]}

(4)停止 hadoop104 上的 kafka。

[zhao@hadoop104 kafka]$ bin/kafka-server-stop.sh

(5)再次查看/kafka/brokers/ids 路径上的节点。

[zk: localhost:2181(CONNECTED)3]ls /kafka/brokers/ids
[0, 1]

(6)再次查看/kafka/controller 路径上的数据。

[zk: localhost:2181(CONNECTED)15] get /kafka/controller

{"version":1,"brokerid":0,"timestamp":"1637292471777"}

(7)再次查看/kafka/brokers/topics/first/partitions/0/state 路径上的数据。

[zk: localhost:2181(CONNECTED)16] get /kafka/brokers/topics/first/partitions/0/state

{"controller_epoch":24,"leader":0,"version":1,"leader_epoch":18,"isr":[0,1]}

(8)启动 hadoop104 上的 kafka。

[zhao@hadoop104 kafka]$ bin/kafka-server-start.sh -daemon ./config/server.properties

(9)再次观察(1)、(2)、(3)步骤中的内容。

4.1.3 Broker 重要参数

参数名称描述replica.lag.time.max.msISR 中,如果 Follower 长时间未向 Leader 发送通信请求或同步数据,则该 Follower 将被踢出 ISR。该时间阈值,

默认 30s

。auto.leader.rebalance.enable

默认是 true

。 自动 Leader Partition 平衡。leader.imbalance.per.broker.percentage

默认是 10%

。每个 broker 允许的不平衡的 leader的比率。如果每个 broker 超过了这个值,控制器会触发 leader 的平衡。leader.imbalance.check.interval.seconds

默认值 300 秒

。检查 leader 负载是否平衡的间隔时间。log.segment.bytesKafka 中 log 日志是分成一块块存储的,此配置是指 log 日志划分 成块的大小,

默认值 1G

。log.index.interval.bytes

默认 4kb

,kafka 里面每当写入了 4kb 大小的日志(.log),然后就往 index 文件里面记录一个索引。log.retention.hoursKafka 中数据保存的时间,

默认 7 天

。log.retention.minutesKafka 中数据保存的时间,

分钟级别

,默认关闭。log.retention.msKafka 中数据保存的时间,

毫秒级别

,默认关闭。log.retention.check.interval.ms检查数据是否保存超时的间隔,

默认是 5 分钟

。log.retention.bytes

默认等于-1

,表示无穷大。超过设置的所有日志总大小,删除最早的 segment。log.cleanup.policy默认是 delete,表示所有数据启用删除策略;如果设置值为 compact,表示所有数据启用压缩策略。num.io.threads

默认是 8

。负责写磁盘的线程数。整个参数值要占
总核数的 50%。num.replica.fetchers副本拉取线程数,这个参数占总核数的 50%的 1/3num.network.threads

默认是 3

。数据传输线程数,这个参数占总核数的50%的 2/3 。log.flush.interval.messages强制页缓存刷写到磁盘的条数,默认是 long 的最大值,9223372036854775807。一般不建议修改,交给系统自己管理。log.flush.interval.ms每隔多久,刷数据到磁盘,默认是 null。一般不建议修改,交给系统自己管理。

4.2 生产经验——节点服役和退役

4.2.1 服役新节点

1)新节点准备

(1)关闭 hadoop104,并右键执行克隆操作。

(2)开启 hadoop105,并修改 IP 地址。

[root@hadoop104 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33DEVICE=ens33
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=static
NAME="ens33"IPADDR=192.168.10.105
PREFIX=24GATEWAY=192.168.10.2
DNS1=192.168.10.2

(3)在 hadoop105 上,修改主机名称为 hadoop105。

[root@hadoop104 ~]# vim /etc/hostname
hadoop105

(4)重新启动 hadoop104、hadoop105。

(5)修改 haodoop105 中 kafka 的 broker.id 为 3。

(6)删除 hadoop105 中 kafka 下的 datas 和 logs。

[zhao@hadoop105 kafka]$ rm-rf datas/* logs/*

(7)启动 hadoop102、hadoop103、hadoop104 上的 kafka 集群。

[zhao@hadoop102 ~]$ zk.sh start
[zhao@hadoop102 ~]$ kf.sh start

8)单独启动 hadoop105 中的 kafka。

[zhao@hadoop105 kafka]$bin/kafka-server-start.sh -daemon ./config/server.properties

2)执行负载均衡操作

(1)创建一个要均衡的主题。

[zhao@hadoop102 kafka]$ vim topics-to-move.json

{"topics":[{"topic":"first"}],"version":1}

(2)生成一个负载均衡的计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --topics-to-move-json-file topics-to-move.json --broker-list "0,1,2,3"--generate

Current partition replica assignment
{"version":1,"partitions":[{"topic":"first","partition":0,"replicas":[0,2,1],"log_dirs":["any","any","any"]},{"topic":"first","partition":1,"replicas":[2,1,0],"log_dirs":["any","any","any"]},{"topic":"first","partition":2,"replicas":[1,0,2],"log_dirs":["any","any","any"]}]}

Proposed partition reassignment configuration
{"version":1,"partitions":[{"topic":"first","partition":0,"replicas":[2,3,0],"log_dirs":["any","any","any"]},{"topic":"first","partition":1,"replicas":[3,0,1],"log_dirs":["any","any","any"]},{"topic":"first","partition":2,"replicas":[0,1,2],"log_dirs":["any","any","any"]}]}

(3)创建副本存储计划(所有副本存储在 broker0、broker1、broker2、broker3 中)。

[zhao@hadoop102 kafka]$ vim increase-replication-factor.json

{"version":1,"partitions":[{"topic":"first","partition":0,"replicas":[2,3,0],"log_dirs":["any","any","any"]},{"topic":"first","partition":1,"replicas":[3,0,1],"log_dirs":["any","any","any"]},{"topic":"first","partition":2,"replicas":[0,1,2],"log_dirs":["any","any","any"]}]}

(4)执行副本存储计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --execute

(5)验证副本存储计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --verify

Status of partition reassignment:
Reassignment of partition first-0 is complete.
Reassignment of partition first-1 is complete.
Reassignment of partition first-2 is complete.

Clearing broker-level throttles on brokers 0,1,2,3
Clearing topic-level throttles on topic first

4.2.2 退役旧节点

1)执行负载均衡操作

先按照退役一台节点,

生成执行计划

,然后按照服役时操作流程执行负载均衡。

(1)创建一个要均衡的主题。

[zhao@hadoop102 kafka]$ vim topics-to-move.json
{"topics":[{"topic":"first"}],"version":1}

(2)创建执行计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --topics-to-move-json-file topics-to-move.json --broker-list "0,1,2"--generate

Current partition replica assignment
{"version":1,"partitions":[{"topic":"first","partition":0,"replicas":[2,0,1],"log_dirs":["any","any","any"]},{"topic":"first","partition":1,"replicas":[3,1,2],"log_dirs":["any","any","any"]},{"topic":"first","partition":2,"replicas":[0,2,3],"log_dirs":["any","any","any"]}]}

Proposed partition reassignment configuration
{"version":1,"partitions":[{"topic":"first","partition":0,"replicas":[2,0,1],"log_dirs":["any","any","any"]},{"topic":"first","partition":1,"replicas":[0,1,2],"log_dirs":["any","any","any"]},{"topic":"first","partition":2,"replicas":[1,2,0],"log_dirs":["any","any","any"]}]}

(3)创建副本存储计划(所有副本存储在 broker0、broker1、broker2 中)。

[zhao@hadoop102 kafka]$ vim increase-replication-factor.json

{"version":1,"partitions":[{"topic":"first","partition":0,"replicas":[2,0,1],"log_dirs":["any","any","any"]},{"topic":"first","partition":1,"replicas":[0,1,2],"log_dirs":["any","any","any"]},{"topic":"first","partition":2,"replicas":[1,2,0],"log_dirs":["any","any","any"]}]}

(4)执行副本存储计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --execute

(5)验证副本存储计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --verify

Status of partition reassignment:
Reassignment of partition first-0 is complete.
Reassignment of partition first-1 is complete.
Reassignment of partition first-2 is complete.

Clearing broker-level throttles on brokers 0,1,2,3
Clearing topic-level throttles on topic first

2)执行停止命令

在 hadoop105 上执行停止命令即可。

[zhao@hadoop105 kafka]$ bin/kafka-server-stop.sh

复习

一、概述
    1、定义
        1)传统定义
            分布式  发布订阅   消息队列
            发布订阅:分为多种类型 订阅者根据需求 选择性订阅
        2)最新定义
            流平台(存储、计算)
    2、消息队列应用场景
        1)缓存消峰 
        2)解耦
        3)异步通信
    3、两种模式
        1)点对点
            (1)一个生产者 一个消费者 一个topic  会删除数据  不多

        2)发布订阅
            (1)多个生产者  消费者多个  而且相互独立  多个topic 不会删除数据
    4、架构
        1)生产者
            100T数据
        
        2)broker 
            (1)broker  服务器 hadoop102 103 104
            (2)topic 主题  对数据分类
            (3)分区
            (4)可靠性  副本
            (5)leader  follower 
            (6)生产者和消费者 只针对leader操作
        
        
        3)消费者
            (1)消费者和消费者相互独立
            (2)消费者组 (某个分区 只能由一个消费者消费)
        
        
        4)zookeeper(一般不使用kafka自带的Zookeeper,使用外部Zookeeper)
            (1)broker.ids 0 1 2 
            (2)leader isr
二、入门
    1、安装
        1)broker.id  必须全局唯一
        2)broker.id、log.dirs zk/kafka
        3)启动停止  先停止kafka  再停zk
        4)脚本
            #!/bin/bash
            
            case $1 in
            "start")
                for i in hadoop102 hadoop103 hadoop104
                do
                    ssh $i "绝对路径"
                done
            ;;
            "stop")
            
            ;;
            esac
    2、常用命令行
        1)主题 kafka-topic.sh 
            (1)--bootstrap-server  hadoop102:9092,hadoop103:9092
            (2)--topic first
            (3)--create 
            (4)--delete
            (5)--alter
            (6)--list
            (7)--describe
            (8)--partitions
            (9)--replication-factor 
    
        2)生产者 kafka-console-producer.sh 
            (1)--bootstrap-server  hadoop102:9092,hadoop103:9092
            (2)--topic first
        
        
        3)消费者 kafka-console-consumer.sh 
            (1)--bootstrap-server  hadoop102:9092,hadoop103:9092
            (2)--topic first
            
三、生产者 
    1、原理
    
    2、异步发送API
        0)配置
            (1)连接  bootstrap-server 
            (2)key value序列化
        
        1)创建生产者
        KafkaProducer<String,String>()
        
        2)发送数据
            send() send(,new Callback)
        
        3)关闭资源
    3、同步发送
        。。。
        
        send() send(,new Callback).get()
        。。。
    4、分区    
        1)好处
            存储
            
            计算
        2)默认分区规则
            (1)指定分区 按分区走
            (2)key  key的hashcode值%分区数
            (3)没有指定key  没有指定分区   粘性
                第一随机
        3)自定义分区
            定义类 实现partitioner接口 
    5、吞吐量提高
        1)批次大小  16k  32k
        2)linger.ms  0  => 5-100ms
        3)压缩  
        4)缓存大小  32m  => 64m 
    6、可靠性 
        acks  
        0  丢失数据
        1   也可能会丢  传输普通日志
        -1  完全可靠  + 副本大于等于2  isr >=2    => 数据重复
    7、数据重复
        1)幂等性
            <pid, 分区号,序列号>
            默认打开
        
        2)事务
            底层基于幂等性
            
            (1)初始化
            (2)启动
            (3)消费者offset
            (4)提交
            (5)终止
    8、数据有序
        单分区内有序(有条件)
        多分区有序怎么办?
    9、乱序
        1)inflight  =1 
        2)没有幂等性 inflight  =1 
        3)有幂等性
四、broker 
    1、zk存储了哪些信息
        (1)broker.ids
        (2)leader 
        (3)辅助选举  controller 
    2、工作流程
    
    3、服役
        1)准备一台干净服务器 hadoop100
        2)对哪个主题操作 
        3)形成计划
        4)执行计划
        5)验证计划
    
    4、退役
        1)要退役的节点不让存储数据
        2)退出节点

4.3 Kafka 副本

4.3.1 副本基本信息

副本数是1 ,意思是就一个分区,同时也是主分区

副本数是2,意思是有2个分区,1个是主分区,1个是从分区

副本数已把主分区数包含在内

(1)Kafka 副本作用:提高数据可靠性。

(2)Kafka 默认副本 1 个,生产环境一般配置为 2 个,保证数据可靠性;太多副本会增加磁盘存储空间,增加网络上数据传输,降低效率。

(3)Kafka 中副本分为:Leader 和 Follower。Kafka 生产者只会把数据发往 Leader,然后 Follower 找 Leader 进行同步数据。

(4)Kafka 分区中的所有副本统称为 AR(Assigned Repllicas)。

AR = ISR + OSR

ISR,表示和 Leader 保持同步的 Follower 集合。如果 Follower 长时间未向 Leader 发送

通信请求或同步数据,则该 Follower 将被踢出 ISR。该时间阈值由

replica.lag.time.max.ms

参数设定,默认 30s。Leader 发生故障之后,就会从 ISR 中选举新的 Leader。

OSR,表示 Follower 与 Leader 副本同步时,延迟过多的副本。

4.3.2 Leader 选举流程

Kafka 集群中有一个 broker 的 Controller 会被选举为 Controller Leader,负责

管理集群broker 的上下线

,所有 topic 的

分区副本分配

Leader 选举

等工作。

Controller 的信息同步工作是依赖于 Zookeeper 的。

image-20240125203206381

(1)创建一个新的 topic,4 个分区,4 个副本

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create--topic zhao1 --partitions4 --replication-factor 4

Created topic zhao1.

(2)查看 Leader 分布情况

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe
--topic zhao1
Topic: zhao1 TopicId: awpgX_7WR-OX3Vl6HE8sVg PartitionCount: 4 ReplicationFactor:  4

    Configs: segment.bytes=1073741824
    Topic: zhao1 Partition: 0 Leader: 3 Replicas: 3,0,2,1 Isr: 3,0,2,1
    Topic: zhao1 Partition: 1 Leader: 1 Replicas: 1,2,3,0 Isr: 1,2,3,0
    Topic: zhao1 Partition: 2 Leader: 0 Replicas: 0,3,1,2 Isr: 0,3,1,2
    Topic: zhao1 Partition: 3 Leader: 2 Replicas: 2,1,0,3 Isr: 2,1,0,3

(3)停止掉 hadoop105 的 kafka 进程,并查看 Leader 分区情况

[zhao@hadoop105 kafka]$ bin/kafka-server-stop.sh

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic zhao1
Topic: zhao1 TopicId: awpgX_7WR-OX3Vl6HE8sVg PartitionCount: 4 ReplicationFactor:4

Configs: segment.bytes=1073741824
Topic: zhao1 Partition: 0 Leader: 0 Replicas: 3,0,2,1 Isr: 0,2,1
Topic: zhao1 Partition: 1 Leader: 1 Replicas: 1,2,3,0 Isr: 1,2,0
Topic: zhao1 Partition: 2 Leader: 0 Replicas: 0,3,1,2 Isr: 0,1,2
Topic: zhao1 Partition: 3 Leader: 2 Replicas: 2,1,0,3 Isr: 2,1,0

(4)停止掉 hadoop104 的 kafka 进程,并查看 Leader 分区情况

[zhao@hadoop104 kafka]$ bin/kafka-server-stop.sh

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic zhao1

Topic: zhao1 TopicId: awpgX_7WR-OX3Vl6HE8sVg PartitionCount: 4 ReplicationFactor: 4
    Configs: segment.bytes=1073741824
    Topic: zhao1 Partition: 0 Leader: 0 Replicas: 3,0,2,1 Isr: 0,1
    Topic: zhao1 Partition: 1 Leader: 1 Replicas: 1,2,3,0 Isr: 1,0
    Topic: zhao1 Partition: 2 Leader: 0 Replicas: 0,3,1,2 Isr: 0,1
    Topic: zhao1 Partition: 3 Leader: 1 Replicas: 2,1,0,3 Isr: 1,0

(5)启动 hadoop105 的 kafka 进程,并查看 Leader 分区情况

[zhao@hadoop105 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic zhao1
Topic: zhao1 TopicId: awpgX_7WR-OX3Vl6HE8sVg PartitionCount: 4 ReplicationFactor: 4
    Configs: segment.bytes=1073741824
    Topic: zhao1 Partition: 0 Leader: 0 Replicas: 3,0,2,1 Isr: 0,1,3
    Topic: zhao1 Partition: 1 Leader: 1 Replicas: 1,2,3,0 Isr: 1,0,3
    Topic: zhao1 Partition: 2 Leader: 0 Replicas: 0,3,1,2 Isr: 0,1,3
    Topic: zhao1 Partition: 3 Leader: 1 Replicas: 2,1,0,3 Isr: 1,0,3

(6)启动 hadoop104 的 kafka 进程,并查看 Leader 分区情况

[zhao@hadoop104 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic zhao1
Topic: zhao1 TopicId: awpgX_7WR-OX3Vl6HE8sVg PartitionCount: 4 ReplicationFactor: 4

    Configs: segment.bytes=1073741824
    Topic: zhao1 Partition: 0 Leader: 0 Replicas: 3,0,2,1 Isr: 0,1,3,2
    Topic: zhao1 Partition: 1 Leader: 1 Replicas: 1,2,3,0 Isr: 1,0,3,2
    Topic: zhao1 Partition: 2 Leader: 0 Replicas: 0,3,1,2 Isr: 0,1,3,2
    Topic: zhao1 Partition: 3 Leader: 1 Replicas: 2,1,0,3 Isr: 1,0,3,2

(7)停止掉 hadoop103 的 kafka 进程,并查看 Leader 分区情况

[zhao@hadoop103 kafka]$ bin/kafka-server-stop.sh

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic zhao1
Topic: zhao1 TopicId: awpgX_7WR-OX3Vl6HE8sVg PartitionCount: 4 ReplicationFactor: 4

    Configs: segment.bytes=1073741824
    Topic: zhao1 Partition: 0 Leader: 0 Replicas: 3,0,2,1 Isr: 0,3,2
    Topic: zhao1 Partition: 1 Leader: 2 Replicas: 1,2,3,0 Isr: 0,3,2
    Topic: zhao1 Partition: 2 Leader: 0 Replicas: 0,3,1,2 Isr: 0,3,2
    Topic: zhao1 Partition: 3 Leader: 2 Replicas: 2,1,0,3 Isr: 0,3,2

4.3.3 Leader 和 Follower 故障处理细节

Follower故障处理细节

image-20240125204438603

Leader故障处理细节

image-20240125205327508

4.3.4 分区副本分配

如果 kafka 服务器只有 4 个节点,那么设置 kafka 的分区数大于服务器台数,在 kafka底层如何分配存储副本呢?

1)创建 16 分区,3 个副本

(1)创建一个新的 topic,名称为 second。

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create--partitions16 --replication-factor 3--topic second

(2)查看分区和副本情况。

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic second

Topic: second4 Partition: 0   Leader: 0 Replicas: 0,1,2 Isr: 0,1,2
Topic: second4 Partition: 1   Leader: 1 Replicas: 1,2,3 Isr: 1,2,3
Topic: second4 Partition: 2   Leader: 2 Replicas: 2,3,0 Isr: 2,3,0
Topic: second4 Partition: 3   Leader: 3 Replicas: 3,0,1 Isr: 3,0,1
Topic: second4 Partition: 4   Leader: 0 Replicas: 0,2,3 Isr: 0,2,3
Topic: second4 Partition: 5   Leader: 1 Replicas: 1,3,0 Isr: 1,3,0
Topic: second4 Partition: 6   Leader: 2 Replicas: 2,0,1 Isr: 2,0,1
Topic: second4 Partition: 7   Leader: 3 Replicas: 3,1,2 Isr: 3,1,2
Topic: second4 Partition: 8   Leader: 0 Replicas: 0,3,1 Isr: 0,3,1
Topic: second4 Partition: 9   Leader: 1 Replicas: 1,0,2 Isr: 1,0,2
Topic: second4 Partition: 10  Leader: 2 Replicas: 2,1,3 Isr: 2,1,3
Topic: second4 Partition: 11  Leader: 3 Replicas: 3,2,0 Isr: 3,2,0
Topic: second4 Partition: 12  Leader: 0 Replicas: 0,1,2 Isr: 0,1,2
Topic: second4 Partition: 13  Leader: 1 Replicas: 1,2,3 Isr: 1,2,3
Topic: second4 Partition: 14  Leader: 2 Replicas: 2,3,0 Isr: 2,3,0
Topic: second4 Partition: 15  Leader: 3 Replicas: 3,0,1 Isr: 3,0,1

分区副本分配

image-20240125210536932

4.3.5 生产经验——手动调整分区副本存储

生产经验——手动调整分区副本存储

在生产环境中,每台服务器的配置和性能不一致,但是Kafka只会根据自己的代码规则创建对应的分区副本,就会导致个别服务器存储压力较大。所有需要手动调整分区副本的存储。

image-20240125210911429

手动调整分区副本存储的步骤如下:

(1)创建一个新的 topic,名称为 three。

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create--partitions4 --replication-factor 2--topic three

(2)查看分区副本存储情况。

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic three

(3)创建副本存储计划(所有副本都指定存储在 broker0、broker1 中)。

[zhao@hadoop102 kafka]$ vim increase-replication-factor.json

输入如下内容:

{"version":1,
    "partitions":[{"topic":"three","partition":0,"replicas":[0,1]},                        {"topic":"three","partition":1,"replicas":[0,1]},                        {"topic":"three","partition":2,"replicas":[1,0]},                        {"topic":"three","partition":3,"replicas":[1,0]}]}

(4)执行副本存储计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --execute

(5)验证副本存储计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --verify

(6)查看分区副本存储情况。

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe--topic three

4.3.6 生产经验——Leader Partition 负载平衡

Leader Partition自动平衡

image-20240125212433459
参数名称描述auto.leader.rebalance.enable默认是 true。 自动 Leader Partition 平衡。生产环境中,leader 重选举的代价比较大,可能会带来性能影响,建议设置为 false 关闭。leader.imbalance.per.broker.percentage默认是 10%。每个 broker 允许的不平衡的 leader的比率。如果每个 broker 超过了这个值,控制器会触发 leader 的平衡。leader.imbalance.check.interval.seconds默认值 300 秒。检查 leader 负载是否平衡的间隔时间。

4.3.7 生产经验——增加副本因子

在生产环境当中,由于某个主题的重要等级需要提升,我们考虑增加副本。副本数的增加需要先制定计划,然后根据计划执行。

1)创建 topic

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create--partitions3 --replication-factor 1--topic four

2)手动增加副本存储

(1)创建副本存储计划(所有副本都指定存储在 broker0、broker1、broker2 中)。

[zhao@hadoop102 kafka]$ vim increase-replication-factor.json

输入如下内容:

{"version":1,"partitions":[{"topic":"four","partition":0,"replicas":[0,1,2]},{"topic":"four","partition":1,"replicas":[0,1,2]},{"topic":"four","partition":2,"replicas":[0,1,2]}]}

(2)执行副本存储计划。

[zhao@hadoop102 kafka]$ bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --execute

4.4 文件存储

4.4.1 文件存储机制

1)Topic 数据的存储机制

Kafka文件存储机制

image-20240126112301396

2)思考:Topic 数据到底存储在什么位置?

(1)启动生产者,并发送消息。

[zhao@hadoop102 kafka]$ bin/kafka-console-producer.sh --bootstrap-server hadoop102:9092 --topic first
>hello world

(2)查看 hadoop102(或者 hadoop103、hadoop104)的/opt/module/kafka/datas/first-1(first-0、first-2)路径上的文件。

[zhao@hadoop104 first-1]$ ls
00000000000000000092.index
00000000000000000092.log
00000000000000000092.snapshot
00000000000000000092.timeindex
leader-epoch-checkpoint
partition.metadata

(3)直接查看 log 日志,发现是乱码。

[zhao@hadoop104 first-1]$ cat 00000000000000000092.log
\CYnF|©|©ÿÿÿÿÿÿÿÿÿÿÿÿÿÿ"hello world

(4)通过工具查看 index 和 log 信息。

[zhao@hadoop104 first-1]$ kafka-run-class.sh kafka.tools.DumpLogSegments --files ./00000000000000000000.index

Dumping ./00000000000000000000.index
offset: 3 position: 152
[zhao@hadoop104 first-1]$ kafka-run-class.sh kafka.tools.DumpLogSegments --files ./00000000000000000000.log

Dumping datas/first-0/00000000000000000000.log
Starting offset: 0
baseOffset: 0 lastOffset: 1 count: 2 baseSequence: -1 lastSequence: -1 producerId: -1 producerEpoch: -1 partitionLeaderEpoch: 0 isTransactional: false isControl: false position:0 CreateTime: 1636338440962 size: 75 magic: 2 compresscodec: none crc: 2745337109 isvalid: true
baseOffset: 2 lastOffset: 2 count: 1 baseSequence: -1 lastSequence: -1 producerId: -1 producerEpoch: -1 partitionLeaderEpoch: 0 isTransactional: false isControl: false position: 75 CreateTime: 1636351749089 size: 77 magic: 2 compresscodec: none crc: 273943004 isvalid: true

baseOffset: 3 lastOffset: 3 count: 1 baseSequence: -1 lastSequence: -1 producerId: -1 producerEpoch: -1 partitionLeaderEpoch: 0 isTransactional: false isControl: false position: 152 CreateTime: 1636351749119 size: 77 magic: 2 compresscodec: none crc: 106207379 isvalid: true
baseOffset: 4 lastOffset: 8 count: 5 baseSequence: -1 lastSequence: -1 producerId: -1 producerEpoch: -1 partitionLeaderEpoch: 0 isTransactional: false isControl: false position: 229 CreateTime: 1636353061435 size: 141 magic: 2 compresscodec: none crc: 157376877 isvalid: true baseOffset: 9 lastOffset: 13 count: 5 baseSequence: -1 lastSequence: -1 producerId: -1  producerEpoch: -1 partitionLeaderEpoch: 0 isTransactional: false isControl: false position: 370 CreateTime: 1636353204051 size: 146 magic: 2 compresscodec: none crc: 4058582827 isvalid: true

3)index 文件和 log 文件详解

Log文件和Index文件详解

image-20240126112825989

说明:日志存储参数配置
参数描述log.segment.bytesKafka 中 log 日志是分成一块块存储的,此配置是指 log 日志划分成块的大小,

默认值 1G。

log.index.interval.bytes

默认 4kb

,kafka 里面每当写入了 4kb 大小的日志(.log),然后就往 index 文件里面记录一个索引。 稀疏索引。

4.4.2 文件清理策略

Kafka 中

默认的日志保存时间为 7 天

,可以通过调整如下参数修改保存时间。

  • log.retention.hours,最低优先级小时,默认 7 天。
  • log.retention.minutes,分钟。
  • log.retention.ms,最高优先级毫秒。
  • log.retention.check.interval.ms,负责设置检查周期,默认 5 分钟。

那么日志一旦超过了设置的时间,怎么处理呢?

Kafka 中提供的日志清理策略有

delete 

compact

两种。

1)delete 日志删除:将过期数据删除

  • log.cleanup.policy = delete 所有数据启用删除策略

(1)

基于时间:默认打开。以 segment 中所有记录中的最大时间戳作为该文件时间戳。

(2)

基于大小:默认关闭

。超过设置的所有日志总大小,删除最早的 segment。

log.retention.bytes,默认等于-1,表示无穷大。

思考:如果一个 segment 中有一部分数据过期,一部分没有过期,怎么处理?

image-20240126113119004

2)compact 日志压缩

image-20240126113206648

4.5 高效读写数据

1)Kafka 本身是分布式集群,可以采用分区技术,并行度高

2)读数据采用稀疏索引,可以快速定位要消费的数据

3)顺序写磁盘

Kafka 的 producer 生产数据,要写入到 log 文件中,写的过程是

一直追加

到文件末端,为顺序写。官网有数据表明,同样的磁盘,顺序写能到 600M/s,而随机写只有 100K/s。这与磁盘的机械机构有关,顺序写之所以快,是因为其省去了大量磁头寻址的时间。

image-20240126113326003

4)页缓存 + 零拷贝技术

image-20240126113354040
参数描述log.flush.interval.messages强制页缓存刷写到磁盘的条数,默认是 long 的最大值,9223372036854775807。一般不建议修改,交给系统自己管理。log.flush.interval.ms每隔多久,刷数据到磁盘,默认是 null。一般不建议修改,交给系统自己管理。

第 5 章 Kafka 消费者

5.1 Kafka 消费方式

image-20240219134221514

5.2 Kafka 消费者工作流程

5.2.1 消费者总体工作流程

image-20240219134312894

5.2.2 消费者组原理

消费者组

image-20240219134400964

image-20240219134445858

消费者组初始化流程

image-20240219134512415

消费者组详细消费流程

image-20240219134542698

5.2.3 消费者重要参数

参数名称描述bootstrap.servers向 Kafka 集群建立初始连接用到的 host/port 列表。key.deserializer和
value.deserializer指定接收消息的 key 和 value 的反序列化类型。一定要写全类名。group.id标记消费者所属的消费者组。enable.auto.commit默认值为 true,消费者会自动周期性地向服务器提交偏移量。auto.commit.interval.ms如果设置了 enable.auto.commit 的值为 true, 则该值定义了消费者偏移量向 Kafka 提交的频率,默认 5s。auto.offset.reset当 Kafka 中没有初始偏移量或当前偏移量在服务器中不存在(如,数据被删除了),该如何处理? earliest:自动重置偏移量到最早的偏移量。 latest:默认,自动重置偏移量为最新的偏移量。 none:如果消费组原来的(previous)偏移量不存在,则向消费者抛异常。 anything:向消费者抛异常。offsets.topic.num.partitions__consumer_offsets 的分区数,默认是 50 个分区。heartbeat.interval.msKafka 消费者和 coordinator 之间的心跳时间,默认 3s。该条目的值必须小于 session.timeout.ms ,也不应该高于session.timeout.ms 的 1/3。session.timeout.msKafka 消费者和 coordinator 之间连接超时时间,默认 45s。超过该值,该消费者被移除,消费者组执行再平衡。max.poll.interval.ms消费者处理消息的最大时长,默认是 5 分钟。超过该值,该消费者被移除,消费者组执行再平衡。fetch.min.bytes默认 1 个字节。消费者获取服务器端一批消息最小的字节数。fetch.max.wait.ms默认 500ms。如果没有从服务器端获取到一批数据的最小字节数。该时间到,仍然会返回数据。fetch.max.bytes默认Default: 52428800(50 m)。消费者 获取服务器端一批消息最大的字节数。如果服务器端一批次的数据大于该值(50m)仍然可以拉取回来这批数据,因此,这不是一个绝对最大值。一批次的大小受 message.max.bytes (brokerconfig)or max.message.bytes (topic config)影响。max.poll.records一次 poll 拉取数据返回消息的最大条数,默认是 500 条。

5.3 消费者 API

5.3.1 独立消费者案例(订阅主题)

1)需求:
创建一个独立消费者,消费 first 主题中数据。

image-20240219135254674

注意:在消费者 API 代码中必须配置消费者组 id。命令行启动消费者不填写消费者组
id 会被自动填写随机的消费者组 id。

2)实现步骤

(1)创建包名:com.zhao.kafka.consumer
(2)编写代码

packagecom.zhao.kafka.consumer;importorg.apache.kafka.clients.consumer.ConsumerConfig;importorg.apache.kafka.clients.consumer.ConsumerRecord;importorg.apache.kafka.clients.consumer.ConsumerRecords;importorg.apache.kafka.clients.consumer.KafkaConsumer;importjava.time.Duration;importjava.util.ArrayList;importjava.util.Properties;publicclassCustomConsumer{publicstaticvoidmain(String[] args){// 1.创建消费者的配置对象Properties properties =newProperties();// 2.给消费者配置对象添加参数
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// 配置序列化 必须
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());// 配置消费者组(组名任意起名) 必须
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");// 创建消费者对象KafkaConsumer<String,String> kafkaConsumer =newKafkaConsumer<String,String>(properties);// 注册要消费的主题(可以消费多个主题)ArrayList<String> topics =newArrayList<>();
        topics.add("first");
        kafkaConsumer.subscribe(topics);// 拉取数据打印while(true){// 设置 1s 中消费一批数据ConsumerRecords<String,String> consumerRecords =   kafkaConsumer.poll(Duration.ofSeconds(1));// 打印消费到的数据for(ConsumerRecord<String,String> consumerRecord :
                 consumerRecords){System.out.println(consumerRecord);}}}}

3)测试

(1)在 IDEA 中执行消费者程序。

(2)在 Kafka 集群控制台,创建 Kafka 生产者,并输入数据。

[zhao@hadoop102 kafka]$ bin/kafka-console-producer.sh --bootstrap-server hadoop102:9092--topic first 
    
>hello

(3)在 IDEA 控制台观察接收到的数据。

ConsumerRecord(topic = first, partition =1, leaderEpoch =3,offset =0, CreateTime =1629160841112, serialized key size = -1,serialized value size =5, headers = RecordHeaders(headers =[],isReadOnly =false), key = null, value = hello)

5.3.2 独立消费者案例(订阅分区)

1)需求:创建一个独立消费者,消费 first 主题 0 号分区的数据。

image-20240219140210251

2)实现步骤

(1)代码编写。

packagecom.zhao.kafka.consumer;importorg.apache.kafka.clients.consumer.ConsumerConfig;importorg.apache.kafka.clients.consumer.ConsumerRecord;importorg.apache.kafka.clients.consumer.ConsumerRecords;importorg.apache.kafka.clients.consumer.KafkaConsumer;importorg.apache.kafka.common.TopicPartition;importjava.time.Duration;importjava.util.ArrayList;importjava.util.Arrays;importjava.util.Properties;publicclassCustomConsumerPartition{publicstaticvoidmain(String[] args){Properties properties =newProperties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// 配置序列化 必须
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());// 配置消费者组(必须),名字可以任意起
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");KafkaConsumer<String,String> kafkaConsumer =newKafkaConsumer<>(properties);// 消费某个主题的某个分区数据ArrayList<TopicPartition> topicPartitions =newArrayList<>();
        topicPartitions.add(newTopicPartition("first",0));
        kafkaConsumer.assign(topicPartitions);while(true){ConsumerRecords<String,String> consumerRecords = kafkaConsumer.poll(Duration.ofSeconds(1));for(ConsumerRecord<String,String> consumerRecord :consumerRecords){System.out.println(consumerRecord);}}}}

3)测试

(1)在 IDEA 中执行消费者程序。

(2)在 IDEA 中执行生产者程序 CustomProducerCallback()在控制台观察生成几个 0 号

分区的数据。

first 0381
first 0382
first 2168
first 1165
first 1166

(3)在 IDEA 控制台,观察接收到的数据,只能消费到 0 号分区数据表示正确。

ConsumerRecord(topic = first, partition = 0, leaderEpoch = 14,offset = 381, CreateTime = 1636791331386, serialized key size = -1, serialized value size = 9, headers = RecordHeaders(headers = [], isReadOnly = false), key = null, value = zhao 0)

ConsumerRecord(topic = first, partition = 0, leaderEpoch = 14,offset = 382, CreateTime = 1636791331397, serialized key size = -1, serialized value size = 9, headers = RecordHeaders(headers = [], isReadOnly = false), key = null, value = zhao 1)

5.3.3 消费者组案例

1)需求:测试同一个主题的分区数据,只能由一个消费者组中的一个消费。

image-20240219140537574

2)案例实操

(1)复制一份基础消费者的代码,在 IDEA 中同时启动,即可启动同一个消费者组中的两个消费者。

packagecom.zhao.kafka.consumer;importorg.apache.kafka.clients.consumer.ConsumerConfig;importorg.apache.kafka.clients.consumer.ConsumerRecord;importorg.apache.kafka.clients.consumer.ConsumerRecords;importorg.apache.kafka.clients.consumer.KafkaConsumer;importjava.time.Duration;importjava.util.ArrayList;importjava.util.Properties;publicclassCustomConsumer1{publicstaticvoidmain(String[] args){// 1.创建消费者的配置对象Properties properties =newProperties();// 2.给消费者配置对象添加参数
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// 配置序列化 必须
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());// 配置消费者组 必须
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");// 创建消费者对象KafkaConsumer<String,String> kafkaConsumer =newKafkaConsumer<String,String>(properties);// 注册主题ArrayList<String> topics =newArrayList<>();
        topics.add("first");
        kafkaConsumer.subscribe(topics);// 拉取数据打印while(true){// 设置 1s中消费一批数据ConsumerRecords<String,String> consumerRecords = kafkaConsumer.poll(Duration.ofSeconds(1));// 打印消费到的数据for(ConsumerRecord<String,String> consumerRecord : consumerRecords){System.out.println(consumerRecord);}}}}

(2)启动代码中的生产者发送消息,在 IDEA 控制台即可看到两个消费者在消费不同分区的数据(如果只发生到一个分区,可以在发送时增加延迟代码 Thread.sleep(2);)。

ConsumerRecord(topic = first, partition = 0, leaderEpoch = 2,offset = 3, CreateTime = 1629169606820, serialized key size = -1,serialized value size = 8, headers = RecordHeaders(headers = [],isReadOnly = false), key = null, value = hello1)

ConsumerRecord(topic = first, partition = 1, leaderEpoch = 3,offset = 2, CreateTime = 1629169609524, serialized key size = -1,serialized value size = 6, headers = RecordHeaders(headers = [],isReadOnly = false), key = null, value = hello2)

ConsumerRecord(topic = first, partition = 2, leaderEpoch = 3,offset = 21, CreateTime = 1629169611884, serialized key size = -1,serialized value size = 6, headers = RecordHeaders(headers = [],isReadOnly = false), key = null, value = hello3)

(3)重新发送到一个全新的主题中,由于默认创建的主题分区数为 1,可以看到只能有一个消费者消费到数据。

image-20240219141840649

image-20240219141845881

5.4 生产经验——分区的分配以及再平衡

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
参数名称描述heartbeat.interval.msKafka 消费者和 coordinator 之间的心跳时间,默认 3s。该条 目的值必 须小于 session.timeout.ms,也不 应该高于session.timeout.ms 的 1/3。session.timeout.msKafka 消费者和 coordinator 之间连接超时时间,默认 45s。超过该值,该消费者被移除,消费者组执行再平衡。max.poll.interval.ms消费者处理消息的最大时长,默认是 5 分钟。超过该值,该消费者被移除,消费者组执行再平衡。partition.assignment.strategy消 费 者 分 区 分 配 策 略 , 默 认 策 略 是 Range +CooperativeSticky。Kafka 可以同时使用多个分区分配策略。可 以 选 择 的 策 略 包 括 : Range 、 RoundRobin 、 Sticky 、CooperativeSticky

5.4.1 Range 以及再平衡

1Range 分区策略原理

image-20240219142218637

2Range 分区分配策略案例

(1)修改主题 first 为 7 个分区。

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --alter--topic first --partitions7

注意:分区数可以增加,但是不能减少。

(2)复制 CustomConsumer 类,创建 CustomConsumer2。这样可以由三个消费CustomConsumer、CustomConsumer1、CustomConsumer2 组成消费者组,组名都为“test”,同时启动 3 个消费者。

image-20240219142427885

(3)启动 CustomProducer 生产者,发送 500 条消息,随机发送到不同的分区。

packagecom.zhao.kafka.producer;importorg.apache.kafka.clients.producer.KafkaProducer;importorg.apache.kafka.clients.producer.ProducerConfig;importorg.apache.kafka.clients.producer.ProducerRecord;importjava.util.Properties;publicclassCustomProducer{publicstaticvoidmain(String[] args)throwsInterruptedException{Properties properties =newProperties();
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());KafkaProducer<String,String> kafkaProducer =newKafkaProducer<>(properties);for(int i =0; i <7; i++){
            kafkaProducer.send(newProducerRecord<>("first", i,"test","zhao"));}
        kafkaProducer.close();}}

说明:Kafka 默认的分区分配策略就是 Range + CooperativeSticky,所以不需要修改策略。

(4)观看 3 个消费者分别消费哪些分区的数据。

image-20240219142543891

image-20240219142549598

image-20240219142645796

3)Range 分区分配再平衡案例

(1)停止掉 0 号消费者,快速重新发送消息观看结果(45s 以内,越快越好)。

1 号消费者:消费到 3、4 号分区数据。
2 号消费者:消费到 5、6 号分区数据。
0 号消费者的任务会整体被分配到 1 号消费者或者 2 号消费者。

说明:0 号消费者挂掉后,消费者组需要按照超时时间 45s 来判断它是否退出,所以需要等待,时间到了 45s 后,判断它真的退出就会把任务分配给其他 broker 执行。

(2)再次重新发送消息观看结果(45s 以后)。

1 号消费者:消费到 0、1、2、3 号分区数据。
2 号消费者:消费到 4、5、6 号分区数据。

说明:消费者 0 已经被踢出消费者组,所以重新按照 range 方式分配。

5.4.2 RoundRobin 以及再平衡

1)RoundRobin 分区策略原理

image-20240219142855632

2)RoundRobin 分区分配策略案例

(1)依次在 CustomConsumer、CustomConsumer1、CustomConsumer2 三个消费者代码中修改分区分配策略为 RoundRobin。

// 修改分区分配策略
properties.put(ConsumerConfig.PARTITION_ASSIGNMENT_STRATEGY_CONFIG,"org.apache.kafka.clients.consumer.RoundRobinAssignor");

(2)重启 3 个消费者,重复发送消息的步骤,观看分区结果。

image-20240219143403266

image-20240219143407754

image-20240219143411978

3)RoundRobin 分区分配再平衡案例

(1)停止掉 0 号消费者,快速重新发送消息观看结果(45s 以内,越快越好)。

1 号消费者:消费到 2、5 号分区数据
2 号消费者:消费到 4、1 号分区数据
0 号消费者的任务会按照 RoundRobin 的方式,把数据轮询分成 0 、6 和 3 号分区数据,
分别由 1 号消费者或者 2 号消费者消费。
说明:0 号消费者挂掉后,消费者组需要按照超时时间 45s 来判断它是否退出,所以需
要等待,时间到了 45s 后,判断它真的退出就会把任务分配给其他 broker 执行

(2)再次重新发送消息观看结果(45s 以后)。

1 号消费者:消费到 0、2、4、6 号分区数据
2 号消费者:消费到 1、3、5 号分区数据

说明:消费者 0 已经被踢出消费者组,所以重新按照 RoundRobin 方式分配。

5.4.3 Sticky 以及再平衡

粘性分区定义:可以理解为分配的结果带有“粘性的”。即在执行一次新的分配之前,考虑上一次分配的结果,尽量少的调整分配的变动,可以节省大量的开销。

粘性分区是 Kafka 从 0.11.x 版本开始引入这种分配策略,首先会尽量均衡的放置分区到消费者上面,在出现同一消费者组内消费者出现问题的时候,会尽量保持原有分配的分区不变化

1)需求

设置主题为 first,7 个分区;准备 3 个消费者,采用粘性分区策略,并进行消费,观察

消费分配情况。然后再停止其中一个消费者,再次观察消费分配情况。

2)步骤

(1)修改分区分配策略为粘性。

注意:3 个消费者都应该注释掉,之后重启 3 个消费者,如果出现报错,全部停止等

会再重启,或者修改为全新的消费者组。

// 修改分区分配策略ArrayList<String> startegys =newArrayList<>();
startegys.add("org.apache.kafka.clients.consumer.StickyAssignor");

properties.put(ConsumerConfig.PARTITION_ASSIGNMENT_STRATEGY_CONFIG,startegys);

(2)使用同样的生产者发送 500 条消息。

可以看到会尽量保持分区的个数近似划分分区。

image-20240219144328460

image-20240219144331990

image-20240219144436580

3)Sticky 分区分配再平衡案例

(1)停止掉 0 号消费者,快速重新发送消息观看结果(45s 以内,越快越好)。

1 号消费者:消费到 2、5、3 号分区数据。
2 号消费者:消费到 4、6 号分区数据。
0 号消费者的任务会按照粘性规则,尽可能均衡的随机分成 0 和 1 号分区数据,分别
由 1 号消费者或者 2 号消费者消费。

说明:0 号消费者挂掉后,消费者组需要按照超时时间 45s 来判断它是否退出,所以需
要等待,时间到了 45s 后,判断它真的退出就会把任务分配给其他 broker 执行。

(2)再次重新发送消息观看结果(45s 以后)。

1 号消费者:消费到 2、3、5 号分区数据。
2 号消费者:消费到 0、1、4、6 号分区数据。
说明:消费者 0 已经被踢出消费者组,所以重新按照粘性方式分配。

5.5 offset 位移

5.5.1 offset 的默认维护位置

image-20240219144534680

__consumer_offsets 主题里面采用 key 和 value 的方式存储数据。key 是 group.id+topic+分区号,value 就是当前 offset 的值。每隔一段时间,kafka 内部会对这个 topic 进行compact,也就是每个 group.id+topic+分区号就保留最新数据。

1)消费 offset 案例

(0)思想:__consumer_offsets 为 Kafka 中的 topic,那就可以通过消费者进行消费。

(1)在配置文件 config/consumer.properties 中添加配置 exclude.internal.topics=false,默认是 true,表示不能消费系统主题。为了查看该系统主题数据,所以该参数修改为 false。

(2)采用命令行方式,创建一个新的 topic。

[zhao@hadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create--topic zhao --partitions2 --replication-factor 2

(3)启动生产者往 zhao 生产数据。

[zhao@hadoop102 kafka]$ bin/kafka-console-producer.sh --topic zhao --bootstrap-server hadoop102:9092

(4)启动消费者消费 zhao 数据。

[zhao@hadoop104 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic zhao --grouptest

注意:指定消费者组名称,更好观察数据存储位置(key 是 group.id+topic+分区号)。

(5)查看消费者消费主题__consumer_offsets。

[zhao@hadoop102 kafka]$ bin/kafka-console-consumer.sh --topic __consumer_offsets --bootstrap-server hadoop102:9092 --consumer.config config/consumer.properties --formatter"kafka.coordinator.group.GroupMetadataManager\$OffsetsMessageFormatter" --from-beginning

[offset,zhao,1]::OffsetAndMetadata(offset=7,
leaderEpoch=Optional[0], metadata=, commitTimestamp=1622442520203,
expireTimestamp=None)[offset,zhao,0]::OffsetAndMetadata(offset=8,
leaderEpoch=Optional[0], metadata=, commitTimestamp=1622442520203,
expireTimestamp=None)

5.5.2 自动提交 offset

image-20240219145102779
参数名称描述enable.auto.commit默认值为 true,消费者会自动周期性地向服务器提交偏移量。auto.commit.interval.ms如果设置了 enable.auto.commit 的值为 true, 则该值定义了消费者偏移量向 Kafka 提交的频率,默认 5s。
1)消费者自动提交 offset

packagecom.zhao.kafka.consumer;importorg.apache.kafka.clients.consumer.ConsumerConfig;importorg.apache.kafka.clients.consumer.ConsumerRecord;importorg.apache.kafka.clients.consumer.ConsumerRecords;importorg.apache.kafka.clients.consumer.KafkaConsumer;importjava.util.Arrays;importjava.util.Properties;publicclassCustomConsumerAutoOffset{publicstaticvoidmain(String[] args){// 1. 创建 kafka消费者配置类Properties properties =newProperties();// 2. 添加配置参数// 添加连接
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// 配置序列化 必须
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");// 配置消费者组
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");// 是否自动提交 offset
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,true);// 提交 offset的时间周期 1000ms,默认 5s
        properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,1000);//3. 创建 kafka消费者KafkaConsumer<String,String>  consumer =newKafkaConsumer<>(properties);//4. 设置消费主题 形参是列表
        consumer.subscribe(Arrays.asList("first"));//5. 消费数据while(true){// 读取消息ConsumerRecords<String,String> consumerRecords = consumer.poll(Duration.ofSeconds(1));// 输出消息for(ConsumerRecord<String,String> consumerRecord : consumerRecords){System.out.println(consumerRecord.value());}}}}

5.5.3 手动提交 offset

image-20240219145326193

1)同步提交 offset

由于同步提交 offset 有失败重试机制,故更加可靠,但是由于一直等待提交结果,提交的效率比较低。以下为同步提交 offset 的示例。

packagecom.zhao.kafka.consumer;importorg.apache.kafka.clients.consumer.ConsumerConfig;importorg.apache.kafka.clients.consumer.ConsumerRecord;importorg.apache.kafka.clients.consumer.ConsumerRecords;importorg.apache.kafka.clients.consumer.KafkaConsumer;importjava.util.Arrays;importjava.util.Properties;publicclassCustomConsumerByHandSync{publicstaticvoidmain(String[] args){// 1. 创建 kafka消费者配置类Properties properties =newProperties();// 2. 添加配置参数// 添加连接
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// 配置序列化 必须
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");// 配置消费者组

        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");// 是否自动提交 offset
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,false);//3. 创建 kafka消费者KafkaConsumer<String,String> consumer =newKafkaConsumer<>(properties);//4. 设置消费主题 形参是列表
        consumer.subscribe(Arrays.asList("first"));//5. 消费数据while(true){// 读取消息ConsumerRecords<String,String> consumerRecords = consumer.poll(Duration.ofSeconds(1));// 输出消息for(ConsumerRecord<String,String> consumerRecord : consumerRecords){System.out.println(consumerRecord.value());}// 同步提交 offset
            consumer.commitSync();}}}

2)异步提交 offset

虽然同步提交 offset 更可靠一些,但是由于其会阻塞当前线程,直到提交成功。因此吞吐量会受到很大的影响。因此更多的情况下,会选用异步提交 offset 的方式。

以下为异步提交 offset 的示例:

ackage com.zhao.kafka.consumer;importorg.apache.kafka.clients.consumer.*;importorg.apache.kafka.common.TopicPartition;importjava.util.Arrays;importjava.util.Map;importjava.util.Properties;publicclassCustomConsumerByHandAsync{publicstaticvoidmain(String[] args){// 1. 创建 kafka消费者配置类Properties properties =newProperties();// 2. 添加配置参数// 添加连接
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// 配置序列化 必须
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");// 配置消费者组
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");// 是否自动提交 offset
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"false");//3. 创建 Kafka消费者KafkaConsumer<String,String> consumer =newKafkaConsumer<>(properties);//4. 设置消费主题 形参是列表
        consumer.subscribe(Arrays.asList("first"));//5. 消费数据while(true){// 读取消息ConsumerRecords<String,String> consumerRecords = consumer.poll(Duration.ofSeconds(1));// 输出消息for(ConsumerRecord<String,String> consumerRecord :  consumerRecords){System.out.println(consumerRecord.value());}// 异步提交 offset
            consumer.commitAsync();}}}

5.5.4 指定 Offset 消费

auto.offset.reset = earliest | latest | none 默认是 latest。

当 Kafka 中没有初始偏移量(消费者组第一次消费)或服务器上不再存在当前偏移量

时(例如该数据已被删除),该怎么办?

(1)earliest:自动将偏移量重置为最早的偏移量,–from-beginning。

(2)latest(默认值):自动将偏移量重置为最新偏移量。

(3)none:如果未找到消费者组的先前偏移量,则向消费者抛出异常。

img

(4)任意指定 offset 位移开始消费

packagecom.zhao.kafka.consumer;importorg.apache.kafka.clients.consumer.ConsumerConfig;importorg.apache.kafka.clients.consumer.ConsumerRecord;importorg.apache.kafka.clients.consumer.ConsumerRecords;importorg.apache.kafka.clients.consumer.KafkaConsumer;importorg.apache.kafka.common.TopicPartition;importorg.apache.kafka.common.serialization.StringDeserializer;importjava.time.Duration;importjava.util.ArrayList;importjava.util.HashSet;importjava.util.Properties;importjava.util.Set;publicclassCustomConsumerSeek{publicstaticvoidmain(String[] args){// 0 配置信息Properties properties =newProperties();// 连接
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key value反序列化
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test2");// 1 创建一个消费者KafkaConsumer<String,String> kafkaConsumer =newKafkaConsumer<>(properties);// 2 订阅一个主题ArrayList<String> topics =newArrayList<>();
        topics.add("first");
        kafkaConsumer.subscribe(topics);Set<TopicPartition> assignment=newHashSet<>();while(assignment.size()==0){
            kafkaConsumer.poll(Duration.ofSeconds(1));// 获取消费者分区分配信息(有了分区分配信息才能开始消费)
            assignment = kafkaConsumer.assignment();}// 遍历所有分区,并指定 offset从 1700的位置开始消费for(TopicPartition tp: assignment){
            kafkaConsumer.seek(tp,1700);}// 3 消费该主题数据while(true){ConsumerRecords<String,String> consumerRecords =kafkaConsumer.poll(Duration.ofSeconds(1));for(ConsumerRecord<String,String> consumerRecord : consumerRecords){System.out.println(consumerRecord);}}}}

注意:每次执行完,需要修改消费者组名;

5.5.5 指定时间消费

需求:在生产环境中,会遇到最近消费的几个小时数据异常,想重新按照时间消费。

例如要求按照时间消费前一天的数据,怎么处理?

操作步骤:

packagecom.zhao.kafka.consumer;importorg.apache.kafka.clients.consumer.*;importorg.apache.kafka.common.TopicPartition;importorg.apache.kafka.common.serialization.StringDeserializer;importjava.time.Duration;importjava.util.*;publicclassCustomConsumerForTime{publicstaticvoidmain(String[] args){// 0 配置信息Properties properties =newProperties();// 连接
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");// key value反序列化
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test2");// 1 创建一个消费者KafkaConsumer<String,String> kafkaConsumer =newKafkaConsumer<>(properties);// 2 订阅一个主题ArrayList<String> topics =newArrayList<>();
        topics.add("first");
        kafkaConsumer.subscribe(topics);Set<TopicPartition> assignment =newHashSet<>();while(assignment.size()==0){
            kafkaConsumer.poll(Duration.ofSeconds(1));// 获取消费者分区分配信息(有了分区分配信息才能开始消费)
            assignment = kafkaConsumer.assignment();}HashMap<TopicPartition,Long> timestampToSearch =newHashMap<>();// 封装集合存储,每个分区对应一天前的数据for(TopicPartition topicPartition : assignment){
            timestampToSearch.put(topicPartition,System.currentTimeMillis()-1*24*3600*1000);}// 获取从 1天前开始消费的每个分区的 offsetMap<TopicPartition,OffsetAndTimestamp> offsets == kafkaConsumer.offsetsForTimes(timestampToSearch);// 遍历每个分区,对每个分区设置消费时间。for(TopicPartition topicPartition : assignment){OffsetAndTimestamp offsetAndTimestamp offsets.get(topicPartition);// 根据时间指定开始消费的位置if(offsetAndTimestamp !=null){
                kafkaConsumer.seek(topicPartition, offsetAndTimestamp.offset());}}// 3 消费该主题数据while(true){ConsumerRecords<String,String> consumerRecords = kafkaConsumer.poll(Duration.ofSeconds(1));for(ConsumerRecord<String,String> consumerRecord : consumerRecords){System.out.println(consumerRecord);}}}}

5.5.6 漏消费和重复消费

重复消费:已经消费了数据,但是 offset 没提交。

漏消费:先提交 offset 后消费,有可能会造成数据的漏消费。

image-20240219145920069

5.6 生产经验——消费者事务

image-20240219145949481

5.7 生产经验——数据积压(消费者如何提高吞吐量)

image-20240219150006130
参数名称描述fetch.max.bytes默认 Default: 52428800(50 m)。消费者获取服务器端一批消息最大的字节数。如果服务器端一批次的数据大于该值(50m)仍然可以拉取回来这批数据,因此,这不是一个绝对最大值。一批次的大小受 message.max.bytes (broker config)or max.message.bytes (topic config)影响。max.poll.records一次 poll 拉取数据返回消息的最大条数,默认是 500 条

第 6 章 Kafka-Eagle 监控

Kafka-Eagle 框架可以监控 Kafka 集群的整体运行情况,在生产环境中经常使用。

6.1 MySQL 环境准备

Kafka-Eagle 的安装依赖于 MySQL,MySQL 主要用来存储可视化展示的数据。如果集群中之前安装过 MySQL 可以跨过该步。

6.2 Kafka 环境准备

1)关闭 Kafka 集群

[zhao@hadoop102 kafka]$ kf.sh stop

2)修改**/opt/module/kafka/bin/kafka-server-start.sh** 命令中

[zhao@hadoop102 kafka]$ vim bin/kafka-server-start.sh

修改如下参数值:

if["x$KAFKA_HEAP_OPTS"="x"];thenexportKAFKA_HEAP_OPTS="-Xmx1G -Xms1G"fi

if["x$KAFKA_HEAP_OPTS"="x"];thenexportKAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"exportJMX_PORT="9999"#export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"fi

注意:修改之后在启动 Kafka 之前要分发之其他节点

[zhao@hadoop102 bin]$ xsync kafka-server-start.sh

6.3 Kafka-Eagle 安装

0)官网:https://www.kafka-eagle.org/

1)上传压缩包 kafka-eagle-bin-2.0.8.tar.gz 到集群/opt/software 目录

2)解压到本地

[zhao@hadoop102 software]$ tar-zxvf kafka-eagle-bin-2.0.8.tar.gz

3)进入刚才解压的目录

[zhao@hadoop102 kafka-eagle-bin-2.0.8]$ ll
总用量 79164
-rw-rw-r--. 1 zhao zhao 8106257710 月 13 00:00 efak-web-2.0.8-bin.tar.gz

4)将 efak-web-2.0.8-bin.tar.gz 解压至**/opt/module**

[zhao@hadoop102 kafka-eagle-bin-2.0.8]$ tar-zxvf efak-web-2.0.8-bin.tar.gz -C /opt/module/

5)修改名称

[zhao@hadoop102 module]$ mv efak-web-2.0.8/ efak

6)修改配置文件 /opt/module/efak/conf/system-config.properties

[zhao@hadoop102 conf]$ vim system-config.properties

####################################### multi zookeeper & kafka cluster list#Settings prefixed with 'kafka.eagle.' will be deprecated, use 'efak.'
instead
######################################efak.zk.cluster.alias=cluster1
cluster1.zk.list=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka

####################################### zookeeper enable acl######################################cluster1.zk.acl.enable=false
cluster1.zk.acl.schema=digest
cluster1.zk.acl.username=test
cluster1.zk.acl.password=test123

####################################### broker size online list######################################cluster1.efak.broker.size=20####################################### zk client thread limit######################################kafka.zk.limit.size=32####################################### EFAK webui port######################################efak.webui.port=8048####################################### kafka jmx acl and ssl authenticate######################################cluster1.efak.jmx.acl=false
cluster1.efak.jmx.user=keadmin
cluster1.efak.jmx.password=keadmin123
cluster1.efak.jmx.ssl=false
cluster1.efak.jmx.truststore.location=/data/ssl/certificates/kafka.truststore
cluster1.efak.jmx.truststore.password=ke123456

####################################### kafka offset storage####################################### offset保存在 kafkacluster1.efak.offset.storage=kafka

####################################### kafka jmx uri######################################cluster1.efak.jmx.uri=service:jmx:rmi:///jndi/rmi://%s/jmxrmi

####################################### kafka metrics, 15 days by default######################################efak.metrics.charts=true
efak.metrics.retain=15####################################### kafka sql topic records max######################################efak.sql.topic.records.max=5000efak.sql.topic.preview.records.max=10####################################### delete kafka topic token######################################efak.topic.token=keadmin

####################################### kafka sasl authenticate######################################cluster1.efak.sasl.enable=false
cluster1.efak.sasl.protocol=SASL_PLAINTEXT
cluster1.efak.sasl.mechanism=SCRAM-SHA-256
cluster1.efak.sasl.jaas.config=org.apache.kafka.common.security.scram.ScramL
oginModule required username="kafka"password="kafka-eagle";cluster1.efak.sasl.client.id=cluster1.efak.blacklist.topics=cluster1.efak.sasl.cgroup.enable=false
cluster1.efak.sasl.cgroup.topics=cluster2.efak.sasl.enable=false
cluster2.efak.sasl.protocol=SASL_PLAINTEXT
cluster2.efak.sasl.mechanism=PLAIN
cluster2.efak.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainL
oginModule required username="kafka"password="kafka-eagle";cluster2.efak.sasl.client.id=cluster2.efak.blacklist.topics=cluster2.efak.sasl.cgroup.enable=false
cluster2.efak.sasl.cgroup.topics=####################################### kafka ssl authenticate######################################cluster3.efak.ssl.enable=false
cluster3.efak.ssl.protocol=SSL
cluster3.efak.ssl.truststore.location=cluster3.efak.ssl.truststore.password=cluster3.efak.ssl.keystore.location=cluster3.efak.ssl.keystore.password=cluster3.efak.ssl.key.password=cluster3.efak.ssl.endpoint.identification.algorithm=https
cluster3.efak.blacklist.topics=cluster3.efak.ssl.cgroup.enable=false
cluster3.efak.ssl.cgroup.topics=####################################### kafka sqlite jdbc driver address####################################### 配置 mysql连接efak.driver=com.mysql.jdbc.Driver
efak.url=jdbc:mysql://hadoop102:3306/ke?useUnicode=true&characterEncoding=UT
F-8&zeroDateTimeBehavior=convertToNull
efak.username=root
efak.password=000000

####################################### kafka mysql jdbc driver address#######################################efak.driver=com.mysql.cj.jdbc.Driver#efak.url=jdbc:mysql://127.0.0.1:3306/ke?useUnicode=true&characterEncoding=U
TF-8&zeroDateTimeBehavior=convertToNull
#efak.username=root#efak.password=123456

7)添加环境变量

[zhao@hadoop102 conf]$ sudovim /etc/profile.d/my_env.sh

# kafkaEFAKexportKE_HOME=/opt/module/efak
exportPATH=$PATH:$KE_HOME/bin

注意:source /etc/profile

[zhao@hadoop102 conf]$ source /etc/profile

8)启动

(1)注意:启动之前需要先启动 ZK 以及 KAFKA。

[zhao@hadoop102 kafka]$ kf.sh start

(2)启动 efak

[zhao@hadoop102 efak]$ bin/ke.sh start
Version 2.0.8 -- Copyright 2016-2021
*****************************************************************
* EFAK Service has started success.
* Welcome, Now you can visit 'http://192.168.10.102:8048'
* Account:admin ,Password:123456
*****************************************************************
* <Usage> ke.sh [start|status|stop|restart|stats]</Usage>
* <Usage> https://www.kafka-eagle.org/ </Usage>
*****************************************************************

说明:如果停止 efak,执行命令

[zhao@hadoop102 efak]$ bin/ke.sh stop

6.4 Kafka-Eagle 页面操作

1)登录页面查看监控数据

http://192.168.10.102:8048/

img

img

img

第 7 章 Kafka-Kraft 模式

7.1 Kafka-Kraft 架构

image-20240219151122396

左图为 Kafka 现有架构,元数据在 zookeeper 中,运行时动态选举 controller,由controller 进行 Kafka 集群管理。右图为 kraft 模式架构(实验性),不再依赖 zookeeper 集群,而是用三台 controller 节点代替 zookeeper,元数据保存在 controller 中,由 controller 直接进行 Kafka 集群管理。

这样做的好处有以下几个:

  • Kafka 不再依赖外部框架,而是能够独立运行;
  • controller 管理集群时,不再需要从 zookeeper 中先读取数据,集群性能上升;
  • 由于不依赖 zookeeper,集群扩展时不再受到 zookeeper 读写能力限制;
  • controller 不再动态选举,而是由配置文件规定。这样我们可以有针对性的加强
  • controller 节点的配置,而不是像以前一样对随机 controller 节点的高负载束手无策。

7.2 Kafka-Kraft 集群部署

1)再次解压一份 kafka 安装包

[zhao@hadoop102 software]$ tar-zxvf kafka_2.12-3.0.0.tgz -C /opt/module/

2)重命名为 kafka2

[zhao@hadoop102 module]$ mv kafka_2.12-3.0.0/ kafka2

3)在 hadoop102 上修改/opt/module/kafka2/config/kraft/server.properties 配置文件

[zhao@hadoop102 kraft]$ vim server.properties

#kafka 的角色(controller 相当于主机、broker 节点相当于从机,主机类似 zk 功
能)
process.roles=broker, controller
#节点 IDnode.id=2#controller服务协议别名controller.listener.names=CONTROLLER
#全 Controller列表controller.quorum.voters=2@hadoop102:9093,3@hadoop103:9093,4@hado
op104:9093
#不同服务器绑定的端口listeners=PLAINTEXT://:9092,CONTROLLER://:9093
#broker服务协议别名inter.broker.listener.name=PLAINTEXT
#broker对外暴露的地址advertised.Listeners=PLAINTEXT://hadoop102:9092
#协议别名到安全协议的映射listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLA
INTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
#kafka数据存储目录log.dirs=/opt/module/kafka2/data

4)分发 kafka2

[zhao@hadoop102 module]$ xsync kafka2/
  • 在 hadoop103 和 hadoop104 上 需 要 对 node.id 相 应 改 变 , 值 需 要 和controller.quorum.voters 对应。
  • 在 hadoop103 和 hadoop104 上 需 要 根 据 各 自 的 主 机 名 称 , 修 改 相 应 的advertised.Listeners 地址。

5)初始化集群数据目录

(1)首先生成存储目录唯一 ID。

[zhao@hadoop102 kafka2]$ bin/kafka-storage.sh random-uuid J7s9e8PPTKOO47PxzI39VA

(2)用该 ID 格式化 kafka 存储目录(三台节点)。

[zhao@hadoop102 kafka2]$ bin/kafka-storage.sh format-t J7s9e8PPTKOO47PxzI39VA -c /opt/module/kafka2/config/kraft/server.properties

[zhao@hadoop103 kafka2]$ bin/kafka-storage.sh format-t J7s9e8PPTKOO47PxzI39VA -c /opt/module/kafka2/config/kraft/server.properties

[zhao@hadoop104 kafka2]$ bin/kafka-storage.sh format-t J7s9e8PPTKOO47PxzI39VA -c /opt/module/kafka2/config/kraft/server.properties

6)启动 kafka 集群

[zhao@hadoop102 kafka2]$ bin/kafka-server-start.sh -daemon
config/kraft/server.properties

[zhao@hadoop103 kafka2]$ bin/kafka-server-start.sh -daemon
config/kraft/server.properties

[zhao@hadoop104 kafka2]$ bin/kafka-server-start.sh -daemon
config/kraft/server.properties

7)停止 kafka 集群

[zhao@hadoop102 kafka2]$ bin/kafka-server-stop.sh
[zhao@hadoop103 kafka2]$ bin/kafka-server-stop.sh
[zhao@hadoop104 kafka2]$ bin/kafka-server-stop.sh

7.3 Kafka-Kraft 集群启动停止脚本

1)在/home/zhao/bin 目录下创建文件 kf2.sh 脚本文件

[zhao@hadoop102 bin]$ vim kf2.sh

脚本如下:

#! /bin/bashcase$1in"start"){foriin hadoop102 hadoop103 hadoop104
    doecho" --------启动 $i Kafka2-------"ssh$i"/opt/module/kafka2/bin/kafka-server-start.sh -daemon /opt/module/kafka2/config/kraft/server.properties"done};;"stop"){foriin hadoop102 hadoop103 hadoop104
    doecho" --------停止 $i Kafka2-------"ssh$i"/opt/module/kafka2/bin/kafka-server-stop.sh "done};;esac

2)添加执行权限

[zhao@hadoop102 bin]$ chmod +x kf2.sh

3)启动集群命令

[zhao@hadoop102 ~]$ kf2.sh start

4)停止集群命令

[zhao@hadoop102 ~]$ kf2.sh stop

第 8 章 集成SpringBoot

SpringBoot 是一个在 JavaEE 开发中非常常用的组件。可以用于 Kafka 的生产者,也可以用于 SpringBoot 的消费者。

img

1)在 IDEA 中安装 lombok 插件

在 Plugins 下搜索 lombok 然后在线安装即可,安装后注意重启

image-20240219152105742

2)SpringBoot 环境准备

(1)创建一个 Spring Initializr

image-20240219152124499

注意:有时候 SpringBoot 官方脚手架不稳定,我们切换国内地址 https://start.aliyun.com

(2)项目名称 sringboot

image-20240219152151024

(3)添加项目依赖

image-20240219152233780

image-20240219152238318

image-20240219152242567

image-20240219152248796

(4)检查自动生成的配置文件

<?xml version="1.0" encoding="UTF-8"?><projectxmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0
                             https://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>2.6.1</version><relativePath/><!-- lookup parent from repository --></parent><groupId>com.zhao</groupId><artifactId>springboot</artifactId><version>0.0.1-SNAPSHOT</version><name>springboot</name><description>Demo project for Spring Boot</description><properties><java.version>1.8</java.version></properties><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.kafka</groupId><artifactId>spring-kafka</artifactId></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><optional>true</optional></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency><dependency><groupId>org.springframework.kafka</groupId><artifactId>spring-kafka-test</artifactId><scope>test</scope></dependency></dependencies><build><plugins><plugin><groupId>org.springframework.boot</groupId><artifactId>spring-boot-maven-plugin</artifactId><configuration><excludes><exclude><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></exclude></excludes></configuration></plugin></plugins></build></project>

8.1 SpringBoot 生产者

(1)修改 SpringBoot 核心配置文件 application.propeties, 添加生产者相关信息

# 应用名称
spring.application.name=zhao_springboot_kafka

# 指定 kafka的地址
spring.kafka.bootstrap-
servers=hadoop102:9092,hadoop103:9092,hadoop104:9092

#指定 key和 value的序列化器
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

(2)创建 controller 从浏览器接收数据, 并写入指定的 topic

packagecom.zhao.springboot;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.kafka.core.KafkaTemplate;importorg.springframework.web.bind.annotation.RequestMapping;importorg.springframework.web.bind.annotation.RestController;@RestControllerpublicclassProducerController{// Kafka模板用来向 kafka发送数据@AutowiredKafkaTemplate<String,String> kafka;@RequestMapping("/zhao")publicStringdata(String msg){
        kafka.send("first", msg);return"ok";}}

(3)在浏览器中给/zhao 接口发送数据

http://localhost:8080/zhao?msg=hello

8.2 SpringBoot 消费者

(1)修改 SpringBoot 核心配置文件 application.propeties

# =========消费者配置开始=========
# 指定 kafka的地址
spring.kafka.bootstrap-
servers=hadoop102:9092,hadoop103:9092,hadoop104:9092

# 指定 key和 value的反序列化器
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

#指定消费者组的 group_id
spring.kafka.consumer.group-id=zhao
# =========消费者配置结束=========

(2)创建类消费 Kafka 中指定 topic 的数据

packagecom.zhao.springboot;importorg.springframework.context.annotation.Configuration;importorg.springframework.kafka.annotation.KafkaListener;@ConfigurationpublicclassKafkaConsumer{// 指定要监听的 topic@KafkaListener(topics ="first")publicvoidconsumeTopic(String msg){// 参数: 收到的 valueSystem.out.println("收到的信息: "+ msg);}}

(3)向 first 主题发送数据

[zhao@hadoop102 kafka]$ bin/kafka-console-producer.sh --bootstrap-server hadoop102:9092 --topic first
>

本文转载自: https://blog.csdn.net/weixin_49435563/article/details/136171760
版权归原作者 efzy 所有, 如有侵权,请联系我们删除。

“大数据技术之 Kafka”的评论:

还没有评论