0


Flink-多流转换(Union、Connect、Join)

文章目录

多流转换

无论是基本的简单转换和聚合,还是基于窗口的计算,我们都是针对一条流上的数据进行处理的。而在实际应用中,可能需要将不同来源的数据连接合并在一起处理,也有可能需要将一条流拆分开,所以经常会有对多条流进行处理的场景。

简单划分的话,多流转换可以分为“分流”和“合流”两大类:

  • 分流的操作一般是通过侧输出流(side output)来实现;
  • 合流的算子比较丰富,根据不同的需求可以调用 union、connect、join 以及 coGroup 等接口进行连接合并操作。

分流

所谓“分流”,就是将一条数据流拆分成完全独立的两条、甚至多条流。也就是基于一个DataStream,得到完全平等的多个子 DataStream。一般来说,我们会定义一些筛选条件,将符合条件的数据拣选出来放到对应的流里。

其实根据条件筛选数据的需求,本身非常容易实现:只要针对同一条流多次独立调用.filter()方法进行筛选,就可以得到拆分之后的流了。

例如:我们可以将电商网站收集到的用户行为数据进行一个拆分,根据类型(type)的不同,分为“Mary”的浏览数据、“Bob”的浏览数据等等。那么代码就可以这样实现:

publicclassSplitStreamByFilter{publicstaticvoidmain(String[] args)throwsException{StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);SingleOutputStreamOperator<Event> stream = env
            .addSource(newClickSource());// 筛选Mary的浏览行为放入MaryStream流中DataStream<Event>MaryStream= stream.filter(newFilterFunction<Event>(){@Overridepublicbooleanfilter(Event value)throwsException{return value.user.equals("Mary");}});// 筛选Bob的购买行为放入BobStream流中DataStream<Event>BobStream= stream.filter(newFilterFunction<Event>(){@Overridepublicbooleanfilter(Event value)throwsException{return value.user.equals("Bob");}});// 筛选其他人的浏览行为放入elseStream流中DataStream<Event> elseStream = stream.filter(newFilterFunction<Event>(){@Overridepublicbooleanfilter(Event value)throwsException{return!value.user.equals("Mary")&&!value.user.equals("Bob");}});MaryStream.print("Mary pv");BobStream.print("Bob pv");
        elseStream.print("else pv");

        env.execute();}}

这种实现非常简单,但代码显得有些冗余——我们的处理逻辑对拆分出的三条流其实是一样的,却重复写了三次。而且这段代码背后的含义,是将原始数据流 stream 复制三份,然后对每一份分别做筛选;这明显是不够高效的。我们自然想到,能不能不用复制流,直接用一个算子就把它们都拆分开呢?

在早期的版本中,DataStream API 中提供了一个**.split()**方法,专门用来将一条流“切分”成多个。它的基本思路其实就是按照给定的筛选条件,给数据分类“盖戳”;然后基于这条盖戳之后的流,分别拣选想要的“戳”就可以得到拆分后的流。这样我们就不必再对流进行复制了。不过这种方法有一个缺陷:因为只是“盖戳”拣选,所以无法对数据进行转换,分流后的数据类型必须跟原始流保持一致。这就极大地限制了分流操作的应用场景。

在 Flink 1.13 版本中,已经弃用了.split()方法,取而代之的是直接用处理函数(process function)的侧输出流(side output)。

我们知道,处理函数本身可以认为是一个转换算子,它的输出类型是单一的,处理之后得到的仍然是一个 DataStream;而侧输出流则不受限制,可以任意自定义输出数据,它们就像从"主流”上分叉出的“支流”。尽管看起来主流和支流有所区别,不过实际上它们都是某种类型的 DataStream,所以本质上还是平等的。利用侧输出流就可以很方便地实现分流操作,而且得到的多条 DataStream 类型可以不同,这就给我们的应用带来了极大的便利。

简单来说,只需要调用上下文 ctx 的.output()方法,就可以输出任意类型的数据了。而侧输出流的标记和提取,都离不开一个“输出标签”(OutputTag),它就相当于 split()分流时的“戳”,指定了侧输出流的id 和类型。

publicclassSplitStreamByOutputTag{// 定义输出标签,侧输出流的数据类型为三元组(user, url, timestamp)privatestaticOutputTag<Tuple3<String,String,Long>>MaryTag=newOutputTag<Tuple3<String,String,Long>>("Mary-pv"){};privatestaticOutputTag<Tuple3<String,String,Long>>BobTag=newOutputTag<Tuple3<String,String,Long>>("Bob-pv"){};publicstaticvoidmain(String[] args)throwsException{StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);SingleOutputStreamOperator<Event> stream = env
            .addSource(newClickSource());SingleOutputStreamOperator<Event> processedStream = stream.process(newProcessFunction<Event,Event>(){@OverridepublicvoidprocessElement(Event value,Context ctx,Collector<Event> out)throwsException{if(value.user.equals("Mary")){
                    ctx.output(MaryTag,newTuple3<>(value.user, value.url, value.timestamp));}elseif(value.user.equals("Bob")){
                    ctx.output(BobTag,newTuple3<>(value.user, value.url, value.timestamp));}else{
                    out.collect(value);}}});

        processedStream.getSideOutput(MaryTag).print("Mary pv");
        processedStream.getSideOutput(BobTag).print("Bob pv");
        processedStream.print("else");

        env.execute();}}

基本合流操作

联合(Union)

最简单的合流操作,就是直接将多条流合在一起,叫作流的“联合”(union)。联合操作要求必须流中的数据类型必须相同,合并之后的新流会包括所有流中的元素,数据类型不变。

在代码中,我们只要基于 DataStream 直接调用.union()方法,传入其他 DataStream 作为参数(可以多个),就可以实现流的联合了;得到的依然是一个 DataStream:

stream1.union(stream2, stream3,...)

这里需要考虑一个问题。在事件时间语义下,水位线是时间的进度标志;不同的流中可能水位线的进展快慢完全不同,如果它们合并在一起,水位线又该以哪个为准呢?

还以要考虑水位线的本质含义,是“之前的所有数据已经到齐了”;所以对于合流之后的水位线,也是要以最小的那个为准,这样才可以保证所有流都不会再传来之前的数据。这与之前介绍的并行任务水位线传递的规则是完全一致的;多条流的合并,某种意义上也可以看作是多个并行任务向同一个下游任务汇合的过程。

publicclassUnionTest{publicstaticvoidmain(String[] args)throwsException{StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);SingleOutputStreamOperator<Event> stream1 = env.socketTextStream("hadoop102",7777).map(data ->{String[] field = data.split(",");returnnewEvent(field[0].trim(), field[1].trim(),Long.valueOf(field[2].trim()));}).assignTimestampsAndWatermarks(WatermarkStrategy.<Event>forBoundedOutOfOrderness(Duration.ofSeconds(2)).withTimestampAssigner(newSerializableTimestampAssigner<Event>(){@OverridepubliclongextractTimestamp(Event element,long recordTimestamp){return element.timestamp;}}));
        stream1.print("stream1");SingleOutputStreamOperator<Event> stream2 = env.socketTextStream("hadoop103",7777).map(data ->{String[] field = data.split(",");returnnewEvent(field[0].trim(), field[1].trim(),Long.valueOf(field[2].trim()));}).assignTimestampsAndWatermarks(WatermarkStrategy.<Event>forBoundedOutOfOrderness(Duration.ofSeconds(5)).withTimestampAssigner(newSerializableTimestampAssigner<Event>(){@OverridepubliclongextractTimestamp(Event element,long recordTimestamp){return element.timestamp;}}));

        stream2.print("stream2");// 合并两条流
        stream1.union(stream2).process(newProcessFunction<Event,String>(){@OverridepublicvoidprocessElement(Event value,Context ctx,Collector<String> out)throwsException{
                        out.collect("水位线:"+ ctx.timerService().currentWatermark());}}).print();

        env.execute();}}

连接(Connect)

流的联合虽然简单,不过受限于数据类型不能改变,灵活性大打折扣,所以实际应用较少出现。除了联合(union),Flink 还提供了另外一种方便的合流操作——连接(connect)。顾名思义,这种操作就是直接把两条流像接线一样对接起来。

(1)连接流(ConnectedStreams)

为了处理更加灵活,连接操作允许流的数据类型不同。但我们知道一个 DataStream 中的数据只能有唯一的类型,所以连接得到的并不是 DataStream,而是一个“连接流”(ConnectedStreams)。连接流可以看成是两条流形式上的“统一”,被放在了一个同一个流中;事实上内部仍保持各自的数据形式不变,彼此之间是相互独立的。要想得到新的 DataStream,还需要进一步定义一个“同处理”(co-process)转换操作,用来说明对于不同来源、不同类型的数据,怎样分别进行处理转换、得到统一的输出类型。所以整体上来,两条流的连接就像是“一国两制”,两条流可以保持各自的数据类型、处理方式也可以不同,不过最终还是会统一到同一个 DataStream 中。

两条流的连接(connect),与联合(union)操作相比,最大的优势就是可以处理不同类型的流的合并,使用更灵活、应用更广泛。当然它也有限制,就是合并流的数量只能是 2,而 union可以同时进行多条流的合并。

在代码实现上,需要分为两步:首先基于一条 DataStream 调用.connect()方法,传入另外一条 DataStream 作为参数,将两条流连接起来,得到一个 ConnectedStreams;然后再调用同处理方法得到 DataStream。这里可以的调用的同处理方法有.map()/.flatMap(),以及.process()方法。

publicclassConnectTest{publicstaticvoidmain(String[] args)throwsException{StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);DataStream<Integer> stream1 = env.fromElements(1,2,3);DataStream<Long> stream2 = env.fromElements(1L,2L,3L);ConnectedStreams<Integer,Long> connectedStreams = stream1.connect(stream2);SingleOutputStreamOperator<String> result = connectedStreams.map(newCoMapFunction<Integer,Long,String>(){@OverridepublicStringmap1(Integer value){return"Integer: "+ value;}@OverridepublicStringmap2(Long value){return"Long: "+ value;}});

        result.print();
        env.execute();}}

调用.map()方法时传入的不再是一个简单的 MapFunction,而是一个 CoMapFunction,表示分别对两条流中的数据执行 map 操作。这个接口有三个类型参数,依次表示第一条流、第二条流,以及合并后的流中的数据类型。需要实现的方法也非常直白:.map1()就是对第一条流中数据的 map 操作,.map2()则是针对第二条流。

值得一提的是,ConnectedStreams 也可以直接调用.keyBy()进行按键分区的操作,得到的还是一个 ConnectedStreams:

connectedStreams.keyBy(keySelector1, keySelector2);

这里传入两个参数 keySelector1 和 keySelector2,是两条流中各自的键选择器;当然也可以直接传入键的位置值(keyPosition),或者键的字段名(field),这与普通的 keyBy 用法完全一致。ConnectedStreams 进行 keyBy 操作,其实就是把两条流中 key 相同的数据放到了一起,然后针对来源的流再做各自处理,这在一些场景下非常有用。

另外,我们也可以在合并之前就将两条流分别进行 keyBy,得到的 KeyedStream 再进行连接(connect)操作,效果是一样的。要注意两条流定义的键的类型必须相同,否则会抛出异常。

(2)CoProcessFunction

对于连接流 ConnectedStreams 的处理操作,需要分别定义对两条流的处理转换,因此接口中就会有两个相同的方法需要实现,用数字“1”“2”区分,在两条流中的数据到来时分别调用。我们把这种接口叫作“协同处理函数”(co-process function)。与 CoMapFunction 类似,如果是调用.flatMap()就需要传入一个 CoFlatMapFunction,需要实现 flatMap1()、flatMap2()两个方法;而调用.process()时,传入的则是一个 CoProcessFunction。

publicabstractclassCoProcessFunction<IN1, IN2, OUT>extendsAbstractRichFunction{...publicabstractvoidprocessElement1(IN1 value,Context ctx,Collector<OUT> out)throwsException;publicabstractvoidprocessElement2(IN2 value,Context ctx,Collector<OUT> out)throwsException;publicvoidonTimer(long timestamp,OnTimerContext ctx,Collector<OUT> out)throwsException{}publicabstractclassContext{...}...}

我们可以看到,很明显 CoProcessFunction 也是“处理函数”家族中的一员,用法非常相似。它需要实现的就是 processElement1()、processElement2()两个方法,在每个数据到来时,会根据来源的流调用其中的一个方法进行处理。CoProcessFunction 同样可以通过上下文 ctx 来访问 timestamp、水位线,并通过 TimerService 注册定时器;另外也提供了.onTimer()方法,用于定义定时触发的处理操作。

具体示例:我们可以实现一个实时对账的需求,也就是app 的支付操作和第三方的支付操作的一个双流 Join。App 的支付事件和第三方的支付事件将会互相等待 5 秒钟,如果等不来对应的支付事件,那么就输出报警信息。程序如下:

publicclassBillCheckExample{publicstaticvoidmain(String[] args)throwsException{StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);// 来自app的支付日志SingleOutputStreamOperator<Tuple3<String,String,Long>> appStream = env.fromElements(Tuple3.of("order-1","app",1000L),Tuple3.of("order-2","app",2000L)).assignTimestampsAndWatermarks(WatermarkStrategy.<Tuple3<String,String,Long>>forMonotonousTimestamps().withTimestampAssigner(newSerializableTimestampAssigner<Tuple3<String,String,Long>>(){@OverridepubliclongextractTimestamp(Tuple3<String,String,Long> element,long recordTimestamp){return element.f2;}}));// 来自第三方支付平台的支付日志SingleOutputStreamOperator<Tuple4<String,String,String,Long>> thirdpartStream = env.fromElements(Tuple4.of("order-1","third-party","success",3000L),Tuple4.of("order-3","third-party","success",4000L)).assignTimestampsAndWatermarks(WatermarkStrategy.<Tuple4<String,String,String,Long>>forMonotonousTimestamps().withTimestampAssigner(newSerializableTimestampAssigner<Tuple4<String,String,String,Long>>(){@OverridepubliclongextractTimestamp(Tuple4<String,String,String,Long> element,long recordTimestamp){return element.f3;}}));// 检测同一支付单在两条流中是否匹配,不匹配就报警
        appStream.connect(thirdpartStream).keyBy(data -> data.f0, data -> data.f0).process(newOrderMatchResult()).print();

        env.execute();}// 自定义实现CoProcessFunctionpublicstaticclassOrderMatchResultextendsCoProcessFunction<Tuple3<String,String,Long>,Tuple4<String,String,String,Long>,String>{// 定义状态变量,用来保存已经到达的事件privateValueState<Tuple3<String,String,Long>> appEventState;privateValueState<Tuple4<String,String,String,Long>> thirdPartyEventState;@Overridepublicvoidopen(Configuration parameters)throwsException{
            appEventState =getRuntimeContext().getState(newValueStateDescriptor<Tuple3<String,String,Long>>("app-event",Types.TUPLE(Types.STRING,Types.STRING,Types.LONG)));

            thirdPartyEventState =getRuntimeContext().getState(newValueStateDescriptor<Tuple4<String,String,String,Long>>("thirdparty-event",Types.TUPLE(Types.STRING,Types.STRING,Types.STRING,Types.LONG)));}@OverridepublicvoidprocessElement1(Tuple3<String,String,Long> value,Context ctx,Collector<String> out)throwsException{// 看另一条流中事件是否来过if(thirdPartyEventState.value()!=null){
                out.collect("对账成功:"+ value +"  "+ thirdPartyEventState.value());// 清空状态
                thirdPartyEventState.clear();}else{// 更新状态
                appEventState.update(value);// 注册一个5秒后的定时器,开始等待另一条流的事件
                ctx.timerService().registerEventTimeTimer(value.f2 +5000L);}}@OverridepublicvoidprocessElement2(Tuple4<String,String,String,Long> value,Context ctx,Collector<String> out)throwsException{if(appEventState.value()!=null){
                out.collect("对账成功:"+ appEventState.value()+"  "+ value);// 清空状态
                appEventState.clear();}else{// 更新状态
                thirdPartyEventState.update(value);// 注册一个5秒后的定时器,开始等待另一条流的事件
                ctx.timerService().registerEventTimeTimer(value.f3 +5000L);}}@OverridepublicvoidonTimer(long timestamp,OnTimerContext ctx,Collector<String> out)throwsException{// 定时器触发,判断状态,如果某个状态不为空,说明另一条流中事件没来if(appEventState.value()!=null){
                out.collect("对账失败:"+ appEventState.value()+"  "+"第三方支付平台信息未到");}if(thirdPartyEventState.value()!=null){
                out.collect("对账失败:"+ thirdPartyEventState.value()+"  "+"app信息未到");}
            appEventState.clear();
            thirdPartyEventState.clear();}}}

(3)广播连接流(BroadcastConnectedStream)

关于两条流的连接,还有一种比较特殊的用法:DataStream 调用.connect()方法时,传入的参数也可以不是一个 DataStream,而是一个“广播流”(BroadcastStream),这时合并两条流得到的就变成了一个“广播连接流”(BroadcastConnectedStream)。

这种连接方式往往用在需要动态定义某些规则或配置的场景。因为规则是实时变动的,所以我们可以用一个单独的流来获取规则数据;而这些规则或配置是对整个应用全局有效的,所以不能只把这数据传递给一个下游并行子任务处理,而是要“广播”(broadcast)给所有的并行子任务。而下游子任务收到广播出来的规则,会把它保存成一个状态,这就是所谓的“广播状态”(broadcast state)。

广播状态底层是用一个“映射”(map)结构来保存的。在代码实现上,可以直接调用DataStream 的.broadcast()方法,传入一个“映射状态描述器”(MapStateDescriptor)说明状态的名称和类型,就可以得到规则数据的“广播流”(BroadcastStream):

MapStateDescriptor<String,Rule> ruleStateDescriptor =newMapStateDescriptor<>(...);BroadcastStream<Rule> ruleBroadcastStream = ruleStream.broadcast(ruleStateDescriptor);

接下来我们就可以将要处理的数据流,与这条广播流进行连接(connect),得到的就是所谓的“广播连接流”(BroadcastConnectedStream)。基于 BroadcastConnectedStream 调用.process()方法,就可以同时获取规则和数据,进行动态处理了。

这里既然调用了.process()方法,当然传入的参数也应该是处理函数大家族中一员——如果对数据流调用过 keyBy 进行了按键分区,那么要传入的就是 KeyedBroadcastProcessFunction;如果没有按键分区,就传入 BroadcastProcessFunction。

DataStream<String> output = stream.connect(ruleBroadcastStream).process(newBroadcastProcessFunction<>(){...});

BroadcastProcessFunction 与 CoProcessFunction 类似,同样是一个抽象类,需要实现两个方法,针对合并的两条流中元素分别定义处理操作。区别在于这里一条流是正常处理数据,而另一条流则是要用新规则来更新广播状态,所以对应的两个方法叫作.processElement()和.processBroadcastElement()。源码中定义如下:

publicabstractclassBroadcastProcessFunction<IN1, IN2, OUT>extendsBaseBroadcastProcessFunction{...publicabstractvoidprocessElement(IN1 value,ReadOnlyContext ctx,Collector<OUT> out)throwsException;publicabstractvoidprocessBroadcastElement(IN2 value,Context ctx,Collector<OUT> out)throwsException;...}

基于时间的合流——双流联结(Join)

窗口联结(Window Join)

如果我们希望将两条流的数据进行合并、且同样针对某段时间进行处理和统计,可以使用窗口联结(window join)算子,可以定义时间窗口,并将两条流中共享一个公共键(key)的数据放在窗口中进行配对处理。侧重对2个输入里的 数据对 进行处理,join方法的入参是单个数据。

(1)窗口联结的调用

窗口联结在代码中的实现,首先需要调用 DataStream 的.join()方法来合并两条流,得到一个 JoinedStreams;接着通过.where()和.equalTo()方法指定两条流中联结的 key;然后通过.window()开窗口,并调用.apply()传入联结窗口函数进行处理计算。通用调用形式如下:

stream1.join(stream2).where(<KeySelector>).equalTo(<KeySelector>).window(<WindowAssigner>).apply(<JoinFunction>)

上面代码中.where()的参数是键选择器(KeySelector),用来指定第一条流中的 key; 而.equalTo()传入的 KeySelector 则指定了第二条流中的 key。两者相同的元素,如果在同一窗口中,就可以匹配起来,并通过一个“联结函数”(JoinFunction)进行处理了。

这里.window()传入的就是窗口分配器,之前讲到的三种时间窗口都可以用在这里:滚动窗口(tumbling window)、滑动窗口(sliding window)和会话窗口(session window)。

而后面调用.apply()可以看作实现了一个特殊的窗口函数。注意这里只能调用.apply(),没有其他替代的方法。

传入的 JoinFunction 也是一个函数类接口,使用时需要实现内部的.join()方法。这个方法有两个参数,分别表示两条流中成对匹配的数据。JoinFunction 在源码中的定义如下:

publicinterfaceJoinFunction<IN1, IN2, OUT>extendsFunction,Serializable{OUTjoin(IN1 first,IN2 second)throwsException;}

这里需要注意,JoinFunciton 并不是真正的“窗口函数”,它只是定义了窗口函数在调用时对匹配数据的具体处理逻辑。

当然,既然是窗口计算,在.window()和.apply()之间也可以调用可选 API 去做一些自定义,比如用.trigger()定义触发器,用.allowedLateness()定义允许延迟时间,等等。

(2)窗口联结的处理流程

JoinFunction 中的两个参数,分别代表了两条流中的匹配的数据。这里就会有一个问题:什么时候就会匹配好数据,调用.join()方法呢?接下来我们就来介绍一下窗口 join 的具体处理流程:

  • 两条流的数据到来之后,首先会按照 key 分组、进入对应的窗口中存储;
  • 当到达窗口结束时间时,算子会先统计出窗口内两条流的数据的所有组合,也就是对两条流中的数据做一个笛卡尔积(相当于表的交叉连接,cross join);
  • 然后进行遍历,把每一对匹配的数据,作为参数(first,second)传入 JoinFunction 的.join()方法进行计算处理,得到的结果直接输出如图所示。

所以窗口中每有一对数据成功联结匹配,JoinFunction 的.join()方法就会被调用一次,并输出一个结果。

除了 JoinFunction,在.apply()方法中还可以传入 FlatJoinFunction,用法非常类似,只是内部需要实现的.join()方法没有返回值。结果的输出是通过收集器(Collector)来实现的,所以对于一对匹配数据可以输出任意条结果。

其实仔细观察可以发现,窗口 join 的调用语法和我们熟悉的 SQL 中表的 join 非常相似:

SELECT*FROM table1 t1, table2 t2 WHERE t1.id = t2.id;

(3)窗口联结实例

在电商网站中,往往需要统计用户不同行为之间的转化,这就需要对不同的行为数据流,按照用户 ID 进行分组后再合并,以分析它们之间的关联。如果这些是以固定时间周期(比如1 小时)来统计的,那我们就可以使用窗口 join 来实现这样的需求。

publicclassWindowJoinTest{publicstaticvoidmain(String[] args)throwsException{StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);DataStream<Tuple2<String,Long>> stream1 = env
            .fromElements(Tuple2.of("a",1000L),Tuple2.of("b",1000L),Tuple2.of("a",2000L),Tuple2.of("b",2000L)).assignTimestampsAndWatermarks(WatermarkStrategy.<Tuple2<String,Long>>forMonotonousTimestamps().withTimestampAssigner(newSerializableTimestampAssigner<Tuple2<String,Long>>(){@OverridepubliclongextractTimestamp(Tuple2<String,Long> stringLongTuple2,long l){return stringLongTuple2.f1;}}));DataStream<Tuple2<String,Long>> stream2 = env
            .fromElements(Tuple2.of("a",3000L),Tuple2.of("b",3000L),Tuple2.of("a",4000L),Tuple2.of("b",4000L)).assignTimestampsAndWatermarks(WatermarkStrategy.<Tuple2<String,Long>>forMonotonousTimestamps().withTimestampAssigner(newSerializableTimestampAssigner<Tuple2<String,Long>>(){@OverridepubliclongextractTimestamp(Tuple2<String,Long> stringLongTuple2,long l){return stringLongTuple2.f1;}}));

        stream1
            .join(stream2).where(r -> r.f0).equalTo(r -> r.f0).window(TumblingEventTimeWindows.of(Time.seconds(5))).apply(newJoinFunction<Tuple2<String,Long>,Tuple2<String,Long>,String>(){@OverridepublicStringjoin(Tuple2<String,Long> left,Tuple2<String,Long> right)throwsException{return left +"=>"+ right;}}).print();

        env.execute();}}

输出:

(a,1000)=>(a,3000)(a,1000)=>(a,4000)(a,2000)=>(a,3000)(a,2000)=>(a,4000)(b,1000)=>(b,3000)(b,1000)=>(b,4000)(b,2000)=>(b,3000)(b,2000)=>(b,4000)

间隔联结(Interval Join)

在有些场景下,我们要处理的时间间隔可能并不是固定的。比如,在交易系统中,需要实时地对每一笔交易进行核验,保证两个账户转入转出数额相等,也就是所谓的“实时对账”。两次转账的数据可能写入了不同的日志流,它们的时间戳应该相差不大,所以我们可以考虑只统计一段时间内是否有出账入账的数据匹配。这时显然不应该用滚动窗口或滑动窗口来处理— —因为匹配的两个数据有可能刚好“卡在”窗口边缘两侧,于是窗口内就都没有匹配了;会话窗口虽然时间不固定,但也明显不适合这个场景。 基于时间的窗口联结已经无能为力了。

为了应对这样的需求,Flink 提供了一种叫作“间隔联结”(interval join)的合流操作。间隔联结的思路就是针对一条流的每个数据,开辟出其时间戳前后的一段时间间隔,看这期间是否有来自另一条流的数据匹配

(1)间隔联结的原理

间隔联结具体的定义方式是,我们给定两个时间点,分别叫作间隔的“上界”(upperBound)和“下界”(lowerBound);于是对于一条流(不妨叫作 A)中的任意一个数据元素 a,就可以开辟一段时间间隔:[a.timestamp + lowerBound, a.timestamp + upperBound],即以 a 的时间戳为中心,下至下界点、上至上界点的一个闭区间:我们就把这段时间作为可以匹配另一条流数据的“窗口”范围。所以对于另一条流(不妨叫 B)中的数据元素 b,如果它的时间戳落在了这个区间范围内,a 和 b 就可以成功配对,进而进行计算输出结果。所以匹配的条件为:

a.timestamp + lowerBound <= b.timestamp <= a.timestamp + upperBound

这里需要注意,做间隔联结的两条流 A 和 B,也必须基于相同的 key;下界 lowerBound应该小于等于上界 upperBound,两者都可正可负;间隔联结目前只支持事件时间语义。

下方的流 A 去间隔联结上方的流 B,所以基于 A 的每个数据元素,都可以开辟一个间隔区间。我们这里设置下界为-2 毫秒,上界为 1 毫秒。于是对于时间戳为 2 的 A 中元素,它的可匹配区间就是[0, 3],流 B 中有时间戳为 0、1 的两个元素落在这个范围内,所以就可以得到匹配数据对(2, 0)和(2, 1)。同样地,A 中时间戳为 3 的元素,可匹配区间为[1, 4],B 中只有时间戳为 1 的一个数据可以匹配,于是得到匹配数据对(3, 1)。

(2) 间隔联结的调用

间隔联结在代码中,是基于 KeyedStream 的联结(join)操作。DataStream 在 keyBy 得到KeyedStream 之后,可以调用.intervalJoin()来合并两条流,传入的参数同样是一个 KeyedStream,两者的 key 类型应该一致;得到的是一个 IntervalJoin 类型。后续的操作同样是完全固定的:先通过.between()方法指定间隔的上下界,再调用.process()方法,定义对匹配数据对的处理操作。调用.process()需要传入一个处理函数,这是处理函数家族的最后一员:“处理联结函数”ProcessJoinFunction。

stream1
    .keyBy(<KeySelector>).intervalJoin(stream2.keyBy(<KeySelector>)).between(Time.milliseconds(-2),Time.milliseconds(1)).process (newProcessJoinFunction<Integer,Integer,String(){@OverridepublicvoidprocessElement(Integer left,Integer right,Context ctx,Collector<String> out){
            out.collect(left +","+ right);}});

可以看到,抽象类 ProcessJoinFunction 就像是 ProcessFunction 和 JoinFunction 的结合,内部同样有一个抽象法.processElement()。与其他处理函数不同的是,它多了一个参数,这自然是因为有来自两条流的数据。

(3)间隔联结实例

在电商网站中,某些用户行为往往会有短时间内的强关联。我们这里举一个例子,我们有两条流,一条是下订单的流,一条是浏览数据的流。我们可以针对同一个用户,来做这样一个联结。也就是使用一个用户的下订单的事件和这个用户的最近十分钟的浏览数据进行一个联结查询。

publicclassIntervalJoinTest{publicstaticvoidmain(String[] args)throwsException{StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);SingleOutputStreamOperator<Tuple3<String,String,Long>> orderStream = env.fromElements(Tuple3.of("Mary","order-1",5000L),Tuple3.of("Alice","order-2",5000L),Tuple3.of("Bob","order-3",20000L),Tuple3.of("Alice","order-4",20000L),Tuple3.of("Cary","order-5",51000L)).assignTimestampsAndWatermarks(WatermarkStrategy.<Tuple3<String,String,Long>>forMonotonousTimestamps().withTimestampAssigner(newSerializableTimestampAssigner<Tuple3<String,String,Long>>(){@OverridepubliclongextractTimestamp(Tuple3<String,String,Long> element,long recordTimestamp){return element.f2;}}));SingleOutputStreamOperator<Event> clickStream = env.fromElements(newEvent("Bob","./cart",2000L),newEvent("Alice","./prod?id=100",3000L),newEvent("Alice","./prod?id=200",3500L),newEvent("Bob","./prod?id=2",2500L),newEvent("Alice","./prod?id=300",36000L),newEvent("Bob","./home",30000L),newEvent("Bob","./prod?id=1",23000L),newEvent("Bob","./prod?id=3",33000L)).assignTimestampsAndWatermarks(WatermarkStrategy.<Event>forMonotonousTimestamps().withTimestampAssigner(newSerializableTimestampAssigner<Event>(){@OverridepubliclongextractTimestamp(Event element,long recordTimestamp){return element.timestamp;}}));

        orderStream.keyBy(data -> data.f0).intervalJoin(clickStream.keyBy(data -> data.user)).between(Time.seconds(-5),Time.seconds(10)).process(newProcessJoinFunction<Tuple3<String,String,Long>,Event,String>(){@OverridepublicvoidprocessElement(Tuple3<String,String,Long> left,Event right,Context ctx,Collector<String> out)throwsException{
                        out.collect(right +" => "+ left);}}).print();

        env.execute();}}

输出:

Event{user='Alice', url='./prod?id=100', timestamp=1970-01-0108:00:03.0}=>(Alice,order-2,5000)Event{user='Alice', url='./prod?id=200', timestamp=1970-01-0108:00:03.5}=>(Alice,order-2,5000)Event{user='Bob', url='./home', timestamp=1970-01-0108:00:30.0}=>(Bob,order-3,20000)Event{user='Bob', url='./prod?id=1', timestamp=1970-01-0108:00:23.0}=>(Bob,order-3,20000)

窗口同组联结(Window CoGroup)

除窗口联结和间隔联结之外,Flink 还提供了一个“窗口同组联结”(window coGroup)操作。它的用法跟 window join 非常类似,也是将两条流合并之后开窗处理匹配的元素,调用时只需要将.join()换为.coGroup()就可以了。

stream1.coGroup(stream2).where(<KeySelector>).equalTo(<KeySelector>).window(TumblingEventTimeWindows.of(Time.hours(1))).apply(<CoGroupFunction>)

与 window join 的区别在于,调用.apply()方法定义具体操作时,传入的是一个CoGroupFunction。这也是一个函数类接口,源码中定义如下:

publicinterfaceCoGroupFunction<IN1, IN2,O>extendsFunction,Serializable{voidcoGroup(Iterable<IN1> first,Iterable<IN2> second,Collector<O> out)throwsException;}

内部的.coGroup()方法,有些类似于 FlatJoinFunction 中.join()的形式,同样有三个参数,分别代表两条流中的数据以及用于输出的收集器(Collector)。不同的是,这里的前两个参数不再是单独的每一组“配对”数据了,而是传入了可遍历的数据集合。也就是说,现在不会再去计算窗口中两条流数据集的笛卡尔积,而是直接把收集到的所有数据一次性传入,至于要怎样配对完全是自定义的。这样.coGroup()方法只会被调用一次,而且即使一条流的数据没有任何另一条流的数据匹配,也可以出现在集合中、当然也可以定义输出结果了。

所以能够看出,coGroup 操作比窗口的 join 更加通用,不仅可以实现类似 SQL 中的“内连接”(inner join),也可以实现左外连接(left outer join)、右外连接(right outer join)和全外连接(full outer join)。事实上,窗口 join 的底层,也是通过 coGroup 来实现的。

publicclassCoGroupTest{publicstaticvoidmain(String[] args)throwsException{StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);DataStream<Tuple2<String,Long>> stream1 = env
            .fromElements(Tuple2.of("a",1000L),Tuple2.of("b",1000L),Tuple2.of("a",2000L),Tuple2.of("b",2000L)).assignTimestampsAndWatermarks(WatermarkStrategy.<Tuple2<String,Long>>forMonotonousTimestamps().withTimestampAssigner(newSerializableTimestampAssigner<Tuple2<String,Long>>(){@OverridepubliclongextractTimestamp(Tuple2<String,Long> stringLongTuple2,long l){return stringLongTuple2.f1;}}));DataStream<Tuple2<String,Long>> stream2 = env
            .fromElements(Tuple2.of("a",3000L),Tuple2.of("b",3000L),Tuple2.of("a",4000L),Tuple2.of("b",4000L)).assignTimestampsAndWatermarks(WatermarkStrategy.<Tuple2<String,Long>>forMonotonousTimestamps().withTimestampAssigner(newSerializableTimestampAssigner<Tuple2<String,Long>>(){@OverridepubliclongextractTimestamp(Tuple2<String,Long> stringLongTuple2,long l){return stringLongTuple2.f1;}}));

        stream1
            .coGroup(stream2).where(r -> r.f0).equalTo(r -> r.f0).window(TumblingEventTimeWindows.of(Time.seconds(5))).apply(newCoGroupFunction<Tuple2<String,Long>,Tuple2<String,Long>,String>(){@OverridepublicvoidcoGroup(Iterable<Tuple2<String,Long>> iter1,Iterable<Tuple2<String,Long>> iter2,Collector<String> collector)throwsException{
                    collector.collect(iter1 +"=>"+ iter2);}}).print();

        env.execute();}}

输出结果是:

[(a,1000),(a,2000)]=>[(a,3000),(a,4000)][(b,1000),(b,2000)]=>[(b,3000),(b,4000)]
标签: flink java 大数据

本文转载自: https://blog.csdn.net/qq_44766883/article/details/129121840
版权归原作者 迷雾总会解 所有, 如有侵权,请联系我们删除。

“Flink-多流转换(Union、Connect、Join)”的评论:

还没有评论