0


Flink 的时间属性及原理解析

因此在判断应该使用

Processing Time

还是

Event Time

的时候,可以遵循一个原则:**当你的应用遇到某些问题要从上一个

checkpoint

或者

savepoint

进行重放,是不是希望结果完全相同**。如果希望结果完全相同,就只能用

Event Time

;如果接受结果不同,则可以用

Processing Time

Processing Time

的一个常见的用途是,根据现实时间来统计整个系统的吞吐,比如要计算现实时间一个小时处理了多少条数据,这种情况只能使用

Processing Time

时间的特性

**

Processing Time

:递增;**
**

Event Time

:一定程度的乱序;**

时间的一个重要特性是:时间只能递增,不会来回穿越。 在使用时间的时候我们要充分利用这个特性。假设我们有这么一些记录,然后我们来分别看一下

Processing Time

还有

Event Time

对于时间的处理。
【1】对于

Processing Time

,因为我们是使用的是本地节点的时间(假设这个节点的时钟同步没有问题),我们每一次取到的

Processing Time

肯定都是递增的,递增就代表着有序,所以说我们相当于拿到的是一个有序的数据流。
【2】而在用

Event Time

的时候因为时间是绑定在每一条的记录上的,由于网络延迟、程序内部逻辑、或者其他一些分布式系统的原因,数据的时间可能会存在一定程度的乱序,比如下图的例子。在

Event Time

场景下,我们把每一个记录所包含的时间称作

Record Timestamp

。如果

Record Timestamp

所得到的时间序列存在乱序,我们就需要去处理这种情况。
[点击并拖拽以移动] ​

如果单条数据之间是乱序,我们就考虑对于整个序列进行更大程度的离散化。简单地讲,就是把数据按照一定的条数组成一些小批次,但这里的小批次并不是攒够多少条就要去处理,而是为了对他们进行时间上的划分。经过这种更高层次的离散化之后,我们会发现最右边方框里的时间就是一定会小于中间方框里的时间,中间框里的时间也一定会小于最左边方框里的时间。
[点击并拖拽以移动] ​

这个时候我们在整个时间序列里插入一些类似于标志位的特殊的处理数据,这些特殊的处理数据叫做

watermark

。一个

watermark

本质上就是一个

timestamp

数值,表示**后到来的数据再也没有小于或等于这个时间

watermark

的了**。

Timestamp 和 Watermark 行为概览

[点击并拖拽以移动] ​

接下来我们重点看一下

Event Time

里的

Record Timestamp

(简写成

timestamp

)和

watermark

的一些基本信息。绝大多数的分布式流计算引擎对于数据都是进行了 DAG 图的抽象,它有自己的数据源,有处理算子,还有一些数据汇。数据在不同的逻辑算子之间进行流动。

watermark

timestamp

有自己的生命周期,主要分为

watermark

timestamp

的产生、他们在不同的节点之间的传播、以及在每一个节点上的处理

**

Timestamp

分配和

Watermark

生成:**

Flink

支持两种

watermark

生成方式。第一种是在

SourceFunction

中产生,相当于把整个的

timestamp

分配和

watermark

生成的逻辑放在流处理应用的源头。我们可以在

SourceFunction

里面通过这两个方法产生

watermark


【1】通过

collectWithTimestamp

方法发送一条数据,其中第一个参数就是我们要发送的数据,第二个参数就是这个数据所对应的时间戳;也可以调用

emitWatermark

去产生一条

watermark

,表示接下来不会再有时间戳小于等于这个数值记录。
【2】另外,有时候我们不想在

SourceFunction

里生成

timestamp

或者

watermark

,或者说使用的

SourceFunction

本身不支持,我们还可以在使用

DataStreamAPI

的时候指定,调用的

DataStream.assignTimestampsAndWatermarks

这个方法,能够接收不同的

timestamp

watermark

的生成器。

总体上而言生成器可以分为两类: 第一类是定期生成器;第二类是根据一些在流处理数据流中遇到的一些特殊记录生成的。
定期生成根据特殊记录生成现实时间驱动数据驱动没个一段时间调用生成方法分一次分配Timestamp都会调用生成的方法实现

AssignerWithPeriodicWatermarks

实现

AssignerWithPunctuatedWatermarks

两者的区别主要有三个方面,首先定期生成是现实时间驱动的,这里的定期生成主要是指

watermark

(因为

timestamp

是每一条数据都需要有的),即定期会调用生成逻辑去产生一个

watermark

。而根据特殊记录生成是数据驱动的,即是否生成

watermark

不是由现实时间来决定,而是当看到一些特殊的记录就表示接下来可能不会有符合条件的数据再发过来了,这个时候相当于每一次分配

Timestamp

之后都会调用用户实现的

watermark

生成方法,用户需要在生成方法中去实现

watermark

的生成逻辑。

在分配

timestamp

和生成

watermark

的过程中,虽然在

SourceFunction

DataStream

中都可以指定,但是还是建议生成的工作越靠近

DataSource

越好。这样会方便让程序逻辑里面更多的 operator 去判断某些数据是否乱序。Flink 内部提供了很好的机制去保证这些

timestamp

watermark

被正确地传递到下游的节点。

Watermark 传播

具体的传播策略基本上遵循这三点:
【1】

watermark

会以广播的形式在算子之间进行传播。比如说上游的算子连接了三个下游的任务,它会把自己当前的收到的

watermark

以广播的形式传到下游。

广播特点: 主机之间“一对所有”的通讯模式,网络对其中每一台主机发出的信号都进行无条件复制并转发,所有主机都可以接收到所有信息(不管你是否需要)

【2】如果在程序里面收到了一个

Long.MAX_VALUE

这个数值的

watermark

,就表示对应的那一条流的一个部分不会再有数据发过来了,它相当于就是一个终止的标志。
【3】对于单流而言,这个策略比较好理解,而对于有多个输入的算子,

watermark

的计算就有讲究了,一个原则是:单输入取其大,多输入取小

[点击并拖拽以移动] ​

举个例子,上图蓝色代表一个算子的一个任务,然后它有三个输入,分别是

W1

W2

W3

,这三个输入可以理解成任何输入,这三个输入可能是属于同一个流,也可能是属于不同的流。然后在计算

watermark

的时候,对于单个输入而言是取他们的最大值,因为我们都知道

watermark

应该遵循一个单调递增的一个原则。对于多输入,它要统计整个算子任务的

watermark

时,就会取这三个计算出来的

watermark

的最小值。即一个多个输入的任务,它的

watermark

受制于最慢的那条输入流。这一点类似于木桶效应,整个木桶中装的水会受制于最矮的那块板。

watermark

在传播的时候有一个特点是,它的传播是幂等的。多次收到相同的

watermark

,甚至收到之前的

watermark

都不会对最后的数值产生影响,因为对于单个输入永远是取最大的,而对于整个任务永远是取一个最小的。同时我们可以注意到这种设计其实有一个局限,具体体现在它没有区分你这个输入是一条流多个

partition

还是来自于不同的逻辑上的流的

JOIN

。对于同一个流的不同

partition

,我们对他做这种强制的时钟同步是没有问题的,因为一开始就把一条流拆散成不同的部分,但每一个部分之间共享相同的时钟。但是如果算子的任务是在做类似于

JOIN

操作,那么要求两个输入的时钟强制同步其实没有什么道理的,因为完全有可能是把一条离现在时间很近的数据流和一个离当前时间很远的数据流进行

JOIN

,这个时候对于快的那条流,因为它要等慢的那条流,所以说它可能就要在状态中去缓存非常多的数据,这对于整个集群来说是一个很大的性能开销。

ProcessFunction

在了解

watermark

的处理之前,先简单了解

ProcessFunction

,因为

watermark

在任务里的处理逻辑分为内部逻辑外部逻辑。外部逻辑其实就是通过

ProcessFunction

来体现的,需要使用 Flink提供的时间相关的

API

的话就只能写在

ProcessFunction

里。

**

ProcessFunction

和时间相关的功能主要有三点:**
【1】根据你当前系统使用的时间语义不同,你可以去获取当前你正在处理这条记录的

Record Timestamp

,或者当前的

Processing Time


【2】它可以获取当前算子的时间,可以把它理解成当前的

watermark


【3】为了在 ProcessFunction 中去实现一些相对复杂的功能,允许注册一些

timer

(定时器)。比如说在

watermark

达到某一个时间点的时候就触发定时器,所有的这些回调逻辑也都是由用户来提供,涉及到如下三个方法,

registerEventTimeTimer

registerProcessingTimeTimer

onTimer

。在

onTimer

方法中就需要去实现自己的回调逻辑,当条件满足时回调逻辑就会被触发。

一个简单的应用是,我们在做一些时间相关的处理的时候,可能需要缓存一部分数据,但这些数据不能一直去缓存下去,所以需要有一些过期的机制,我们可以通过

timer

去设定这么一个时间,指定某一些数据可能在将来的某一个时间点过期,从而把它从状态里删除掉。所有的这些和时间相关的逻辑在

Flink

内部都是由自己的

Time Service

(时间服务)完成的。

Watermark 处理

一个算子的实例在收到

watermark

的时候,首先要更新当前的算子时间,这样的话在

ProcessFunction

里方法查询这个算子时间的时候,就能获取到最新的时间。第二步它会遍历计时器队列,这个计时器队列就是我们刚刚说到的

timer

,你可以同时注册很多

timer

Flink

会把这些

Timer

按照触发时间放到一个优先队列中。**第三步

Flink

得到一个时间之后就会遍历计时器的队列,然后逐一触发用户的回调逻辑**。通过这种方式,

Flink

的某一个任务就会将当前的

watermark

发送到下游的其他任务实例上,从而完成整个

watermark

的传播,从而形成一个闭环。
[点击并拖拽以移动] ​

Table API 中的时间

下面看一看

Table/SQL API

中的时间。为了让时间参与到

Table/SQL

这一层的运算中,我们需提前把时间属性放到表的

schema

中,这样的话我们才能够在

SQL

语句或者

Table

的逻辑表达式里面使用时间去完成需求。

**

Table

中指定时间列:** 其实之前社区就怎么在

Table/SQL

中去使用时间这个问题做过一定的讨论,是把获取当前

Processing Time

的方法是作为一个特殊的

UDF

,还是**把这一个列物化到整个的

schema

里面**,最终采用了后者。我们这里就分开来讲一讲

Processing Time

Event Time

在使用的时候怎么在

Table

中指定。
从DataStream转化通过TableSource 转化Processing TimetEnv.fromDataStream(stream,“f1,f2,f3.proctime”)TableSource实现DefinedProctimeAttributes接口Event Time原始 DataStream 必须有 timestamp 及 watermark数据中存在类型为 long或 timestamp的时间字段Event TimetEnv.fromDataStream(stream,“f1,f2,f3.rowtime”) tEnv.fromDataStream(stream,“f1.rowtime,f2,f3”)TableSource实现DefinedProctimeAttributes接口
对于

Processing Time

,我们知道要得到一个

Table

对象(或者注册一个

Table

)有两种手段:
● 可以从一个

DataStream

转化成一个

Table


本文转载自: https://blog.csdn.net/2401_87288961/article/details/142425025
版权归原作者 2401_87288961 所有, 如有侵权,请联系我们删除。

“Flink 的时间属性及原理解析”的评论:

还没有评论