0


Flink 中KeyBy、分区、分组的正确理解

1.Flink中的KeyBy

在Flink中,KeyBy作为我们常用的一个聚合类型算子,它可以按照相同的Key对数据进行重新分区,分区之后分配到对应的子任务当中去。
源码解析
keyBy 得到的结果将不再是 DataStream,而是会将 DataStream 转换为 KeyedStream(键控流),KeyedStream 可以认为是“分区流”或者“键控流”,它是对 DataStream 按照 key 的一个逻辑分区。
所以泛型有两个类型:除去当前流中的元素类型外,还需要指定 key 的类型。
在这里插入图片描述
KeyBy是如何实现分区的呢

Flink中的KeyBy底层其实就是通过Hash实现的,通过对Key的值进行Hash,再做一次murmurHash,取模运算。
再通过Job的并行度,就能获取每个Key应该分配到那个子任务中了。

在这里插入图片描述

2.分组和分区在Flink中的区别

分区:分区(Partitioning)是将数据流划分为多个子集,这些子集可以在不同的任务实例上进行处理,以实现数据的并行处理。
数据具体去往哪个分区,是通过指定的 key 值先进行一次 hash 再进行一次 murmurHash,通过上述计算得到的值再与并行度进行相应的计算得到。
分组:分组(Grouping)是将具有相同键值的数据元素归类到一起,以便进行后续操作(如聚合、窗口计算等)。
key值相同的数据将进入同一个分组中。
注意:数据如果具有相同的key将一定去往同一个分组和分区,但是同一分区中的数据不一定属于同一组。

3.代码示例

packagecom.flink.DataStream.Aggregation;importorg.apache.flink.api.common.RuntimeExecutionMode;importorg.apache.flink.api.common.functions.FlatMapFunction;importorg.apache.flink.api.common.functions.MapFunction;importorg.apache.flink.api.common.typeinfo.Types;importorg.apache.flink.api.java.functions.KeySelector;importorg.apache.flink.api.java.tuple.Tuple2;importorg.apache.flink.streaming.api.datastream.DataStreamSource;importorg.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;importorg.apache.flink.streaming.api.environment.StreamExecutionEnvironment;importorg.apache.flink.util.Collector;publicclassFlinkKeyByDemo{publicstaticvoidmain(String[] args)throwsException{//TODO 创建Flink上下文执行环境StreamExecutionEnvironment streamExecutionEnvironment =StreamExecutionEnvironment.getExecutionEnvironment();//设置并行度为1
        streamExecutionEnvironment.setParallelism(1);//设置执行模式为批处理
        streamExecutionEnvironment.setRuntimeMode(RuntimeExecutionMode.BATCH);//TODO source 从集合中创建数据源DataStreamSource<String> dataStreamSource = streamExecutionEnvironment.fromElements("hello word","hello flink");//TODO 方式一 匿名实现类SingleOutputStreamOperator<Tuple2<String,Integer>> outputStreamOperator1 = dataStreamSource
                .flatMap(newFlatMapFunction<String,String>(){@OverridepublicvoidflatMap(String s,Collector<String> collector)throwsException{String[] s1 = s.split(" ");for(String word : s1){
                            collector.collect(word);}}}).map(newMapFunction<String,Tuple2<String,Integer>>(){@OverridepublicTuple2<String,Integer>map(String s)throwsException{Tuple2<String,Integer> aa =Tuple2.of(s,1);return aa;}})/**
                 * keyBy 得到的结果将不再是 DataStream,而是会将 DataStream 转换为 KeyedStream(键控流)
                 * KeyedStream 可以认为是“分区流”或者“键控流”,它是对 DataStream 按照 key 的一个逻辑分区
                 * 所以泛型有两个类型:除去当前流中的元素类型外,还需要指定 key 的类型。
                 * *//**
                 * 分组和分区在Flink 中具有不同的含义和作用:
                 * 分区:分区(Partitioning)是将数据流划分为多个子集,这些子集可以在不同的任务实例上进行处理,以实现数据的并行处理。
                 *      数据具体去往哪个分区,是通过指定的 key 值先进行一次 hash 再进行一次 murmurHash,通过上述计算得到的值再与并行度进行相应的计算得到。
                 * 分组:分组(Grouping)是将具有相同键值的数据元素归类到一起,以便进行后续操作 (如聚合、窗口计算等)。
                 *      key 值相同的数据将进入同一个分组中。
                 * 注意:数据如果具有相同的key将一定去往同一个分组和分区,但是同一分区中的数据不一定属于同一组。
                 * */.keyBy(newKeySelector<Tuple2<String,Integer>,String>(){@OverridepublicStringgetKey(Tuple2<String,Integer> stringIntegerTuple2)throwsException{return stringIntegerTuple2.f0;}}).sum(1);//TODO 方式二 Lamda表达式实现SingleOutputStreamOperator<Tuple2<String,Integer>> outputStreamOperator2 = dataStreamSource
                .flatMap((String s,Collector<String> collector)->{String[] s1 = s.split(" ");for(String word : s1){
                        collector.collect(word);}}).returns(Types.STRING).map((String word)->{returnTuple2.of(word,1);})//Java中lamda表达式存在类型擦除.returns(Types.TUPLE(Types.STRING,Types.INT)).keyBy((Tuple2<String,Integer> s)->{return s.f0;}).sum(1);//TODO sink
        outputStreamOperator1.print("方式一");
        outputStreamOperator2.print("方式二");//TODO 执行
        streamExecutionEnvironment.execute("Flink KeyBy Demo");}}
标签: flink 大数据

本文转载自: https://blog.csdn.net/dgssd/article/details/133813466
版权归原作者 文文鑫 所有, 如有侵权,请联系我们删除。

“Flink 中KeyBy、分区、分组的正确理解”的评论:

还没有评论