本章重点介绍生产环境中最常用到的
Flink kafka connector
。使用
Flink
的同学,一定会很熟悉
kafka
,它是一个分布式的、分区的、多副本的、 支持高吞吐的、发布订阅消息系统。生产环境环境中也经常会跟
kafka
进行一些数据的交换,比如利用
kafka consumer
读取数据,然后进行一系列的处理之后,再将结果写出到
kafka
中。这里会主要分两个部分进行介绍,一是
Flink kafka Consumer
,一个是
Flink kafka Producer
Flink 输入输出至 Kafka案例
首先看一个例子来串联下
Flink kafka connector
。代码逻辑里主要是从 kafka里读数据,然后做简单的处理,再写回到
kafka
中。首先需要引入
flink-kafka
相关的
pom.xml
依赖:
<dependency><groupId>org.apache.flink</groupId><artifactId>flink-connector-kafka-0.11_2.12</artifactId><version>1.10.0</version></dependency>
分别从如何构造一个
Source sinkFunction
。
Flink
提供了现成的构造
FlinkKafkaConsumer
、
Producer
的接口,可以直接使用。这里需要注意,因为
kafka
有多个版本,多个版本之间的接口协议会不同。
Flink
针对不同版本的
kafka
有相应的版本的
Consumer
和
Producer
。例如:针对
08
、
09
、
10
、
11
版本,
Flink
对应的
consumer
分别是
FlinkKafkaConsumer 08
、
09
、
010
、
011
,
producer
也是。
packagecom.zzx.flink;importorg.apache.flink.api.common.functions.MapFunction;importorg.apache.flink.api.common.serialization.SimpleStringSchema;importorg.apache.flink.api.java.utils.ParameterTool;importorg.apache.flink.streaming.api.CheckpointingMode;importorg.apache.flink.streaming.api.TimeCharacteristic;importorg.apache.flink.streaming.api.environment.StreamExecutionEnvironment;importorg.apache.flink.streaming.api.functions.timestamps.BoundedOutOfOrdernessTimestampExtractor;importorg.apache.flink.streaming.api.windowing.time.Time;importorg.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer011;importorg.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer011;importscala.Tuple2;importscala.tools.nsc.transform.patmat.Logic;importjava.util.Properties;/**
* @description: Flink 从kafka 中读取数据并写入kafka
* @author: zzx
* @createDate: 2020/7/22
* @version: 1.0
*/publicclassFlinkKafkaExample{publicstaticvoidmain(String[] args)throwsException{//ParameterTool 从参数中读取数据finalParameterTool params =ParameterTool.fromArgs(args);//设置执行环境finalStreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();//使参数在web界面中可用
env.getConfig().setGlobalJobParameters(params);/** TimeCharacteristic 中包含三种时间类型
* @PublicEvolving
* public enum TimeCharacteristic {
* //以operator处理的时间为准,它使用的是机器的系统时间来作为data stream的时间
* ProcessingTime,
* //以数据进入flink streaming data flow的时间为准
* IngestionTime,
* //以数据自带的时间戳字段为准,应用程序需要指定如何从record中抽取时间戳字段
* EventTime
* }
*/
env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);/**
* CheckpointingMode: EXACTLY_ONCE(执行一次) AT_LEAST_ONCE(至少一次)
*/
env.enableCheckpointing(60*1000,CheckpointingMode.EXACTLY_ONCE);//------------------------------------------source start -----------------------------------String sourceTopic ="sensor";String bootstrapServers ="hadoop1:9092";// kafkaConsumer 需要的配置参数Properties props =newProperties();// 定义kakfa 服务的地址,不需要将所有broker指定上
props.put("bootstrap.servers", bootstrapServers);// 制定consumer group
props.put("group.id","test");// 是否自动确认offset
props.put("enable.auto.commit","true");// 自动确认offset的时间间隔
props.put("auto.commit.interval.ms","1000");// key的序列化类
props.put("key.deserializer","org.apache.kafka.common.serialization.StringDeserializer");// value的序列化类
props.put("value.deserializer","org.apache.kafka.common.serialization.StringDeserializer");//从kafka读取数据,需要实现 SourceFunction 他给我们提供了一个FlinkKafkaConsumer011<String> consumer =newFlinkKafkaConsumer011<String>(sourceTopic,newSimpleStringSchema(), props);//------------------------------------------source end -----------------------------------------//------------------------------------------sink start -----------------------------------String sinkTopic ="topic";Properties properties =newProperties();
properties.put("bootstrap.servers", bootstrapServers);
properties.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");FlinkKafkaProducer011<String> producer =newFlinkKafkaProducer011<String>(sinkTopic,newSimpleStringSchema(), properties);//------------------------------------------sink end --------------------------------------//FlinkKafkaConsumer011 继承自 RichParallelSourceFunction
env.addSource(consumer).map(newMapFunction<String,Tuple2<Long,String>>(){@OverridepublicTuple2<Long,String>map(String s)throwsException{returnnewTuple2<>(1L,s);}}).filter(k -> k !=null).assignTimestampsAndWatermarks(newBoundedOutOfOrdernessTimestampExtractor<Tuple2<Long,String>>(Time.seconds(5)){@OverridepubliclongextractTimestamp(Tuple2<Long,String> element){return element._1;}}).map(k ->k.toString()).addSink(producer);//执行
env.execute("FlinkKafkaExample");}}
如下创建代码中涉及的
"sensor" Topic
[root@hadoop1 kafka_2.11-2.2.2]# bin/kafka-topics.sh --create --zookeeper hadoop1:2181--topic sensor --replication-factor 2--partitions 4
Flink kafka Consumer
反序列化数据: 因为
kafka
中数据都是以二进制
byte
形式存储的。读到
Flink
系统中之后,需要将二进制数据转化为具体的
java
、
scala
对象。具体需要实现一个
schema
类定义如何序列化和反序列数据。反序列化时需要实现
DeserializationSchema
接
口,并重写
deserialize(byte[] message)
函数,如果是反序列化
kafka
中
kv
的数据时,需要实现
KeyedDeserializationSchema
接口,并重写
deserialize(byte[] messageKey, byte[] message, String topic, int partition, long offset)
函数。
另外
Flink
中也提供了一些常用的序列化反序列化的
schema
类。例如,
SimpleStringSchema
,按字符串方式进行序列化、反序列化。
TypeInformationSerializationSchema
,它可根据
Flink
的
TypeInformation
信息来推断出需要选择的
schema
。
JsonDeserializationSchema
使用
jackson
反序列化
json
格式消息,并返回
ObjectNode
,可以使用
get(“property”)
方法来访问相应字段。
消费起始位置设置
如何设置作业消费
kafka
起始位置的数据,这一部分
Flink
也提供了非常好的封装。在构造好的
FlinkKafkaConsumer
类后面调用如下相应函数,设置合适的起始位置。
【1】
setStartFromGroupOffsets
,也是默认的策略,从
group offset
位置读取数据,
group offset
指的是
kafka broker
端记录的某个
group
的最后一次的消费位置。但是
kafka broker
端没有该
group
信息,会根据
kafka
的参数
auto.offset.reset
的设置来决定从哪个位置开始消费。
○
setStartFromEarliest
,从
kafka
最早的位置开始读取。
○
setStartFromLatest
,从
kafka
最新的位置开始读取。
○
setStartFromTimestamp(long)
,从时间戳大于或等于指定时间戳的位置开始读取。
Kafka
时间戳,是指
kafka
为每条消息增加另一个时戳。该时戳可以表示消息在
proudcer
端生成时的时间、或进入到
kafka broker
时的时间。
○
setStartFromSpecificOffsets
,从指定分区的
offset
位置开始读取,如指定的
offsets
中不存某个分区,该分区从
group offset
位置开始读取。此时需要用户给定一个具体的分区、
offset
的集合。
一些具体的使用方法可以参考下图。需要注意的是,因为
Flink
框架有容错机制,如果作业故障,如果作业开启
checkpoint
,会从上一次
checkpoint
状态开始恢复。或者在停止作业的时候主动做
savepoint
,启动作业时从
savepoint
开始恢复。这两种情况下恢复作业时,作业消费起始位置是从之前保存的状态中恢复,与上面提到跟
kafka
这些单独的配置无关。
topic 和 partition 动态发现
实际的生产环境中可能有这样一些需求:
场景一,有一个
Flink
作业需要将五份数据聚合到一起,五份数据对应五个
kafka topic
,随着业务增长,新增一类数据,同时新增了一个
kafka topic
,如何在不重启作业的情况下作业自动感知新的
topic
。
场景二,作业从一个固定的
kafka topic
读数据,开始该
topic
有
10
个
partition
,但随着业务的增长数据量变大,需要对
kafka partition
个数进行扩容,由
10
个扩容到
20
。该情况下如何在不重启作业情况下动态感知新扩容的
partition
?
针对上面的两种场景,首先需要在构建
FlinkKafkaConsumer
时的
properties
中设置
flink.partition-discovery.interval-millis
参数为非负值,表示开启动态发现的开关,以及设置的时间间隔。此时
FlinkKafkaConsumer
内部会启动一个单独的线程定期去
kafka
获取最新的
meta
信息。针对场景一,还需在构建
FlinkKafkaConsumer
时,
topic
的描述可以传一个正则表达式(如下图所示)描述的
pattern
。每次获取最新
kafka meta
时获取正则匹配的最新
topic
列表。针对场景二,设置前面的动态发现参数,在定期获取
kafka
最新
meta
信息时会匹配新的
partition
。为了保证数据的正确性,新发现的
partition
从最早的位置开始读取。
commit offset 方式
Flink kafka consumer commit offset
方式需要区分是否开启了
checkpoint
。如果
checkpoint
关闭,**
commit offset
要依赖于
kafka
客户端的
auto commit
**。 需设置
enable.auto.commit
,
auto.commit.interval.ms
参数到
consumer properties
,就会按固定的时间间隔定期
auto commit offset
到
kafka
。**如果开启
checkpoint
,这个时候作业消费的
offset
,
Flink
会在
state
中自己管理和容错**。此时提交
offset
到
kafka
,一般都是作为外部进度的监控,想实时知道作业消费的位置和
lag
情况。此时需要
setCommitOffsetsOnCheckpoints
为
true
来设置当
checkpoint
成功时提交
offset
到
kafka
。此时
commit offset
的间隔就取决于
checkpoint
的间隔,所以此时从
kafka
一侧看到的
lag
可能并非完全实时,如果
checkpoint
间隔比较长
lag
曲线可能会是一个锯齿状。
Timestamp Extraction/Watermark 生成
我们知道当
Flink
作业内使用
EventTime
属性时,需要指定从消息中提取时间戳和生成水位的函数。
FlinkKakfaConsumer
构造的
source
后直接调用
assignTimestampsAndWatermarks
函数设置水位生成器的好处是此时是每个
partition
一个
watermark assigner
,如下图。
source
生成的时戳为多个
partition
时戳对齐后的最小时戳。此时在一个
source
读取多个
partition
,并且
partition
之间数据时戳有一定差距的情况下,因为在
source
端
watermark
在
partition
级别有对齐,不会导致数据读取较慢
partition
数据丢失。
Flink kafka Producer
【1】**
Producer
分区:** 使用
FlinkKafkaProducer
往
kafka
中写数据时,如果不单独设置
partition
策略,会默认使用
FlinkFixedPartitioner
,该
partitioner
分区的方式是
task
所在的并发
id
对
topic
总
partition
数取余:
parallelInstanceId % partitions.length
。
○ 此时如果
sink
为
4
,
paritition
为
1
,则
4
个
task
往同一个
partition
中写数据。但当
sink task < partition
个数时会有部分
partition
没有数据写入,例如
sink task
为
2
,
partition
总数为
4
,则后面两个
partition
将没有数据写入。
○ 如果构建
FlinkKafkaProducer
时,
partition
设置为
null
,此时会使用
kafka producer
默认分区方式,非
key
写入的情况下,使用
round-robin
的方式进行分区,每个
task
都会轮循的写下游的所有
partition
。该方式下游的
partition
数据会比较均衡,但是缺点是
partition
个数过多的情况下需要维持过多的网络连接,即每个
task
都会维持跟所有
partition
所在
broker
的连接。
容错
Flink kafka 09
、
010
版本下,通过
setLogFailuresOnly
为
false
,
setFlushOnCheckpoint
为
true
, 能达到
at-least-once
语义。
setLogFailuresOnly
默认为
false
,是控制写
kafka
失败时,是否只打印失败的
log
不抛异常让作业停止。
setFlushOnCheckpoint
,默认为
true
,是控制是否在
checkpoint
时
fluse
数据到
kafka
,保证数据已经写到
kafka
。否则数据有可能还缓存在
kafka
客户端的
buffer
中,并没有真正写出到
kafka
,此时作业挂掉数据即丢失,不能做到至少一次的语义。
Flink kafka 011
版本下,通过两阶段提交的
sink
结合
kafka
事务的功能,可以保证端到端精准一次。
疑问与解答
【问题一】: 在
Flink consumer
的并行度的设置:是对应
topic
的
partitions
个数吗?要是有多个主题数据源,并行度是设置成总体的
partitions
数吗?
【解答】: 这个并不是绝对的,跟
topic
的数据量也有关,如果数据量不大,也可以设置小于
partitions
个数的并发数。但不要设置并发数大于
partitions
总数,因为这种情况下某些并发因为分配不到
partition
导致没有数据处理。
【问题二】: 如果
partitioner
传
null
的时候是
round-robin
发到每一个
partition
?如果有
key
的时候行为是
kafka
那种按照
key
分布到具体分区的行为吗?
【解答】: 如果在构造
FlinkKafkaProducer
时,如果没有设置单独的
partitioner
,则默认使用
FlinkFixedPartitioner
,此时无论是带
key
的数据,还是不带
key
。如果主动设置
partitioner
为
null
时,不带
key
的数据会
round-robin
轮询的方式写出到
partition
,带
key
的数据会根据
key
,相同
key
数据分区的相同的
partition
。
【问题三】: 如果
checkpoint
时间过长,
offset
未提交到
kafka
,此时节点宕机了,重启之后的重复消费如何保证呢?
【解答】: 首先开启
checkpoint
时
offset
是
Flink
通过状态
state
管理和恢复的,并不是从
kafka
的
offset
位置恢复。在
checkpoint
机制下,作业从最近一次
checkpoint
恢复,本身是会回放部分历史数据,导致部分数据重复消费,
Flink
引擎仅保证计算状态的精准一次,要想做到端到端精准一次需要依赖一些幂等的存储系统或者事务操作。
版权归原作者 程序猿进阶 所有, 如有侵权,请联系我们删除。