**
Event Time
:一定程度的乱序;**
时间的一个重要特性是:时间只能递增,不会来回穿越。 在使用时间的时候我们要充分利用这个特性。假设我们有这么一些记录,然后我们来分别看一下
Processing Time
还有
Event Time
对于时间的处理。
【1】对于
Processing Time
,因为我们是使用的是本地节点的时间(假设这个节点的时钟同步没有问题),我们每一次取到的
Processing Time
肯定都是递增的,递增就代表着有序,所以说我们相当于拿到的是一个有序的数据流。
【2】而在用
Event Time
的时候因为时间是绑定在每一条的记录上的,由于网络延迟、程序内部逻辑、或者其他一些分布式系统的原因,数据的时间可能会存在一定程度的乱序,比如下图的例子。在
Event Time
场景下,我们把每一个记录所包含的时间称作
Record Timestamp
。如果
Record Timestamp
所得到的时间序列存在乱序,我们就需要去处理这种情况。
如果单条数据之间是乱序,我们就考虑对于整个序列进行更大程度的离散化。简单地讲,就是把数据按照一定的条数组成一些小批次,但这里的小批次并不是攒够多少条就要去处理,而是为了对他们进行时间上的划分。经过这种更高层次的离散化之后,我们会发现最右边方框里的时间就是一定会小于中间方框里的时间,中间框里的时间也一定会小于最左边方框里的时间。
这个时候我们在整个时间序列里插入一些类似于标志位的特殊的处理数据,这些特殊的处理数据叫做
watermark
。一个
watermark
本质上就是一个
timestamp
数值,表示**后到来的数据再也没有小于或等于这个时间
watermark
的了**。
Timestamp 和 Watermark 行为概览
接下来我们重点看一下
Event Time
里的
Record Timestamp
(简写成
timestamp
)和
watermark
的一些基本信息。绝大多数的分布式流计算引擎对于数据都是进行了 DAG 图的抽象,它有自己的数据源,有处理算子,还有一些数据汇。数据在不同的逻辑算子之间进行流动。
watermark
和
timestamp
有自己的生命周期,主要分为
watermark
和
timestamp
的产生、他们在不同的节点之间的传播、以及在每一个节点上的处理。
**
Timestamp
分配和
Watermark
生成:**
Flink
支持两种
watermark
生成方式。第一种是在
SourceFunction
中产生,相当于把整个的
timestamp
分配和
watermark
生成的逻辑放在流处理应用的源头。我们可以在
SourceFunction
里面通过这两个方法产生
watermark
:
【1】通过
collectWithTimestamp
方法发送一条数据,其中第一个参数就是我们要发送的数据,第二个参数就是这个数据所对应的时间戳;也可以调用
emitWatermark
去产生一条
watermark
,表示接下来不会再有时间戳小于等于这个数值记录。
【2】另外,有时候我们不想在
SourceFunction
里生成
timestamp
或者
watermark
,或者说使用的
SourceFunction
本身不支持,我们还可以在使用
DataStreamAPI
的时候指定,调用的
DataStream.assignTimestampsAndWatermarks
这个方法,能够接收不同的
timestamp
和
watermark
的生成器。
总体上而言生成器可以分为两类: 第一类是定期生成器;第二类是根据一些在流处理数据流中遇到的一些特殊记录生成的。
定期生成根据特殊记录生成现实时间驱动数据驱动没个一段时间调用生成方法分一次分配Timestamp都会调用生成的方法实现
AssignerWithPeriodicWatermarks
实现
AssignerWithPunctuatedWatermarks
两者的区别主要有三个方面,首先定期生成是现实时间驱动的,这里的定期生成主要是指
watermark
(因为
timestamp
是每一条数据都需要有的),即定期会调用生成逻辑去产生一个
watermark
。而根据特殊记录生成是数据驱动的,即是否生成
watermark
不是由现实时间来决定,而是当看到一些特殊的记录就表示接下来可能不会有符合条件的数据再发过来了,这个时候相当于每一次分配
Timestamp
之后都会调用用户实现的
watermark
生成方法,用户需要在生成方法中去实现
watermark
的生成逻辑。
在分配
timestamp
和生成
watermark
的过程中,虽然在
SourceFunction
和
DataStream
中都可以指定,但是还是建议生成的工作越靠近
DataSource
越好。这样会方便让程序逻辑里面更多的 operator 去判断某些数据是否乱序。Flink 内部提供了很好的机制去保证这些
timestamp
和
watermark
被正确地传递到下游的节点。
Watermark 传播
具体的传播策略基本上遵循这三点:
【1】
watermark
会以广播的形式在算子之间进行传播。比如说上游的算子连接了三个下游的任务,它会把自己当前的收到的
watermark
以广播的形式传到下游。
广播特点: 主机之间“一对所有”的通讯模式,网络对其中每一台主机发出的信号都进行无条件复制并转发,所有主机都可以接收到所有信息(不管你是否需要)
【2】如果在程序里面收到了一个
Long.MAX_VALUE
这个数值的
watermark
,就表示对应的那一条流的一个部分不会再有数据发过来了,它相当于就是一个终止的标志。
【3】对于单流而言,这个策略比较好理解,而对于有多个输入的算子,
watermark
的计算就有讲究了,一个原则是:单输入取其大,多输入取小。
举个例子,上图蓝色代表一个算子的一个任务,然后它有三个输入,分别是
W1
、
W2
、
W3
,这三个输入可以理解成任何输入,这三个输入可能是属于同一个流,也可能是属于不同的流。然后在计算
watermark
的时候,对于单个输入而言是取他们的最大值,因为我们都知道
watermark
应该遵循一个单调递增的一个原则。对于多输入,它要统计整个算子任务的
watermark
时,就会取这三个计算出来的
watermark
的最小值。即一个多个输入的任务,它的
watermark
受制于最慢的那条输入流。这一点类似于木桶效应,整个木桶中装的水会受制于最矮的那块板。
watermark
在传播的时候有一个特点是,它的传播是幂等的。多次收到相同的
watermark
,甚至收到之前的
watermark
都不会对最后的数值产生影响,因为对于单个输入永远是取最大的,而对于整个任务永远是取一个最小的。同时我们可以注意到这种设计其实有一个局限,具体体现在它没有区分你这个输入是一条流多个
partition
还是来自于不同的逻辑上的流的
JOIN
。对于同一个流的不同
partition
,我们对他做这种强制的时钟同步是没有问题的,因为一开始就把一条流拆散成不同的部分,但每一个部分之间共享相同的时钟。但是如果算子的任务是在做类似于
JOIN
操作,那么要求两个输入的时钟强制同步其实没有什么道理的,因为完全有可能是把一条离现在时间很近的数据流和一个离当前时间很远的数据流进行
JOIN
,这个时候对于快的那条流,因为它要等慢的那条流,所以说它可能就要在状态中去缓存非常多的数据,这对于整个集群来说是一个很大的性能开销。
ProcessFunction
在了解
watermark
的处理之前,先简单了解
ProcessFunction
,因为
watermark
在任务里的处理逻辑分为内部逻辑和外部逻辑。外部逻辑其实就是通过
ProcessFunction
来体现的,需要使用 Flink提供的时间相关的
API
的话就只能写在
ProcessFunction
里。
**
ProcessFunction
和时间相关的功能主要有三点:**
【1】根据你当前系统使用的时间语义不同,你可以去获取当前你正在处理这条记录的
Record Timestamp
,或者当前的
Processing Time
。
【2】它可以获取当前算子的时间,可以把它理解成当前的
watermark
。
【3】为了在 ProcessFunction 中去实现一些相对复杂的功能,允许注册一些
timer
(定时器)。比如说在
watermark
达到某一个时间点的时候就触发定时器,所有的这些回调逻辑也都是由用户来提供,涉及到如下三个方法,
registerEventTimeTimer
、
registerProcessingTimeTimer
和
onTimer
。在
onTimer
方法中就需要去实现自己的回调逻辑,当条件满足时回调逻辑就会被触发。
一个简单的应用是,我们在做一些时间相关的处理的时候,可能需要缓存一部分数据,但这些数据不能一直去缓存下去,所以需要有一些过期的机制,我们可以通过
timer
去设定这么一个时间,指定某一些数据可能在将来的某一个时间点过期,从而把它从状态里删除掉。所有的这些和时间相关的逻辑在
Flink
内部都是由自己的
Time Service
(时间服务)完成的。
Watermark 处理
一个算子的实例在收到
watermark
的时候,首先要更新当前的算子时间,这样的话在
ProcessFunction
里方法查询这个算子时间的时候,就能获取到最新的时间。第二步它会遍历计时器队列,这个计时器队列就是我们刚刚说到的
timer
,你可以同时注册很多
timer
,
Flink
会把这些
Timer
按照触发时间放到一个优先队列中。**第三步
Flink
得到一个时间之后就会遍历计时器的队列,然后逐一触发用户的回调逻辑**。通过这种方式,
Flink
的某一个任务就会将当前的
watermark
发送到下游的其他任务实例上,从而完成整个
watermark
的传播,从而形成一个闭环。
Table API 中的时间
下面看一看
Table/SQL API
中的时间。为了让时间参与到
Table/SQL
这一层的运算中,我们需提前把时间属性放到表的
schema
中,这样的话我们才能够在
SQL
语句或者
Table
的逻辑表达式里面使用时间去完成需求。
**
Table
中指定时间列:** 其实之前社区就怎么在
Table/SQL
中去使用时间这个问题做过一定的讨论,是把获取当前
Processing Time
的方法是作为一个特殊的
UDF
,还是**把这一个列物化到整个的
schema
里面**,最终采用了后者。我们这里就分开来讲一讲
Processing Time
和
Event Time
在使用的时候怎么在
Table
中指定。
从DataStream转化通过TableSource 转化Processing TimetEnv.fromDataStream(stream,“f1,f2,f3.proctime”)TableSource实现DefinedProctimeAttributes接口Event Time原始 DataStream 必须有 timestamp 及 watermark数据中存在类型为 long或 timestamp的时间字段Event TimetEnv.fromDataStream(stream,“f1,f2,f3.rowtime”) tEnv.fromDataStream(stream,“f1.rowtime,f2,f3”)TableSource实现DefinedProctimeAttributes接口
对于
Processing Time
,我们知道要得到一个
Table
对象(或者注册一个
Table
)有两种手段:
● 可以从一个
DataStream
转化成一个
Table
;
● 直接通过
TableSource
去生成这么一个
Table
;
对于第一种方法而言,我们只需要在你已有的这些列中(例子中
f1
和
f2
就是两个已有的列),在最后用“列名
.proctime
”这种写法就可以把最后的这一列注册为一个
Processing Time
,以后在写查询的时候就可以去直接使用这一列。如果
Table
是通过
TableSource
生成的,就可以通过实现这一个
DefinedRowtimeAttributes
接口,然后就会自动根据你提供的逻辑去生成对应的
Processing Time
。
相对而言,在使用
EventTime
时则有一个限制,因为
EventTime
不像
Processing Time
那样是随拿随用。如果要从
DataStream
去转化得到一个
Table
,必须要提前保证原始的
DataStream
里面已经存在了
RecordTimestamp
和
watermark
。如果想通过
TableSource
生成的,也一定要保证要接入的数据里面存在一个类型为
long
或者
timestamp
的时间字段。具体来说,如果要从
DataStream
去注册一个表,和
proctime
类似,只需要加上“列名
.rowtime
”就可以。需要注意,如果要用
Processing Time
,必须保证要新加的字段是整个
schema
中的最后一个字段,而
Event Time
的时候其实可以去替换某一个已有的列,然后
Flink
会自动的把这一列转化成需要的
rowtime
这个类型。
如果是通过
TableSource
生成的,只需要实现
DefinedRowtimeAttributes
接口就可以了。需要说明的一点是,在
DataStream API
这一侧其实不支持同时存在多个
Event Time(rowtime)
,但是在
Table
这一层理论上可以同时存在多个
rowtime
。因为
DefinedRowtimeAttributes
接口的返回值是一个对于
rowtime
描述的
List
,即其实可以同时存在多个
rowtime
列,在将来可能会进行一些其他的改进,或者基于去做一些相应的优化。
时间列和 Table 操作
版权归原作者 2301_82244122 所有, 如有侵权,请联系我们删除。