Flink任务实战优化

一个好产品,功能应该尽量包装在服务内部;对于Flink而言,无疑是做到了这一点。但是用户在使用Flink的时候,依然可以从版本的选择、代码逻辑、资源参数、业务的数据情况等方面做任务级的定制化优化;用最合理的资源使用,保障实时性、稳定性和最佳Tps的处理能力

Flink去重计数统计用户数

使用flink回撤流去重统计支付用户数

Flink 的时间属性及原理解析

Flink的API大体上可以划分为三个层次:处于,这三层中的每一层都非常依赖于时间属性。时间在FlinkAPI。在这一层中因为封装方面的原因,我们能够接触到时间的地方不是很多,所以我们将重点放在底层的和最上层的。

Flink 内容分享(十八):基于Flink+Iceberg构建企业数据湖实战

Flink还支持通过指定catalog-impl属性来加载自定义的Iceberg Catalog实现。

基于 Flink SQL 和 Paimon 构建流式湖仓新方案

Paimon 结合了湖存储和 LSM(Log Structured MergeTree)技术,提供了低延时、低成本的流式数据湖解决方案。 Paimon 与 Flink 有深度集成,支持 CDC

关于flink重新提交任务,重复消费kafka的坑

1、savepoint的数据要比checkpoint更加稳定,比如你可以通过移动(拷贝)savepoint 目录到任意地方,然后再进行恢复。checkpoint就不可以,因为他有很多相对路径配置。2、savepoint和checkpoint一般都能作为恢复点使用,例外情况是使用 RocksDB 状态

Flink 内容分享(十二):Flink在金融行业的应用

目录众安保险用户背景平台概况应用场景未来规划蚂蚁集团主要挑战架构方案核心技术介绍1.热启动技术​编辑 2.K8S集群模式​编辑3.流批一体技术以下内容来自众安保险的Flink架构师的分享众安在线财产保险股份有限公司是中国首家互联网保险公司,众安总部位于上海,不设任何分支机构,完全通过互联网展业。由"

Flink Watermark和时间语义

当事件流流进 Partition 时会判断新事件流的WM是否大于当前的Partition WM,当大于时就更新 Partition 的时间戳WM为新流入的WM(取最大值),如下1->2象限Partition WM的变化。同时,如下 Task 也维护了一个全局的 WM 表示事件时钟,该值取分区中最小的

Flink面试题与详解

官网图:由两个部分组成,JM,TM。JM中包含三个组件,。dispatch主要是负责提供了rest接口,接受客户端提供的jar包dataflow等信息,并且运行Flink UI也是该组件运行。jobmaster主要是负责将dataflow等数据流图转换成真正的物理执行图,如果资源足够启动任务,那么就

Flink的处理函数——processFunction

Flink的处理函数——processFunction

Flink DataStream 编程模型

‍都说IT今年很难,越是在这个时候越是要坚持,相信总能看到黎明与曙光。这不我准备整理一下教程,对自己也是一个学习、总结的过程,我相信待到经济复苏,IT仍然是热门。本文是我的第一篇付费文章,这是个开篇纵览,后面会深入讲解Flink理论与开发,不限于Flink这一个组件,后面也会有Spark、Click

Flink项目实战篇 基于Flink的城市交通监控平台(上)

近几年来,随着国内经济的快速发展,高速公路建设步伐不断加快,全国机动车辆、驾驶员数量迅速增长,交通管理工作日益繁重,压力与日俱增。为了提高公安交通管理工作的科学化、现代化水平,缓解警力不足,加强和保障道路交通的安全、有序和畅通,减少道路交通违法和事故的发生,全国各地建设和使用了大量的“电子警察”、“

Flink SQL: 高效解析 Kafka 数据并存储为 Parquet 至 HDFS

Flink SQL应用程序的结构是通过定义一系列任务来执行实时数据处理,这些任务创建必要的表和视图,处理数据,然后将结果插入指定的接收器。这项工作利用 Flink 的流处理能力以及 SQL 和 UDF 来转换和管理数据流

Flink实时电商数仓之Doris框架(七)

大规模并行处理的分析型数据库产品。使用场景:一般先将原始数据经过清洗过滤转换后,再导入doris中使用。

Flink CDC和Flink SQL构建实时数仓Flink写入Doris

Flink CDC和Flink SQL构建实时数仓Flink写入Doris

Flink CDC 1.0至3.0回忆录

Flink CDC 1.0至3.0回忆录

Flink日志文件配置详解

在上述示例中,我们将根日志记录器(org.apache.flink)的级别设置为INFO,表示只打印INFO级别及以上的日志信息。同时,我们将数据流API的日志记录器(org.apache.flink.streaming.api.datastream)的级别设置为DEBUG,表示除了INFO级别的日

Flink 输出至 Elasticsearch

Flink 输出至 Elasticsearch。

基于 Flink 的典型 ETL 场景实现方案

数仓架构演变,三种架构:lambda架构、kappa架构、实时olap架构。维表join,双流Join。

万字解决Flink|Spark|Hive 数据倾斜

不管再出现分布式计算框架出现数据倾斜问题解决思路如下:很多数据倾斜的问题,都可以用和平台无关的方式解决,比如更好的数据预处理,异常值的过滤等。因此,解决数据倾斜的重点在于对数据设计和业务的理解,这两个搞清楚了,数据倾斜就解决了大部分了。关注这几个方面:数据预处理。解决热点数据:分而治之(第一次打散计

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈