0


【Flink 实战系列】Flink CDC 实时同步 Mysql 全量加增量数据到 Hudi

【Flink 实战系列】Flink CDC 实时同步 Mysql 全量加增量数据到 Hudi

前言

Flink CDC 是基于 Flink 开发的变化数据获取组件(Change data capture),简单的说就是来捕获变更的数据,Apache Hudi 是一个数据湖平台,又支持对数据做增删改查操作,所以 Flink CDC 可以很好的和 Hudi 结合起来,打造实时数仓,实时湖仓一体的架构,下面就来演示一下同步的过程。

环境

组件版本Flink1.15.1Hadoop2.9.0Hudi0.12.0Mysql5.xFlink CDC2.3.0

添加 Jar 包依赖

为了方便演示,这里就直接采用 sql-client 提交任务的方式,在提交任务之前,需要先添加几个必要的 Jar 包。

flink-sql-connector-mysql-cdc-2.3.0.jar
hudi-flink1.15-bundle-0.12.0.jar
mysql-connector-java-5.1.47.jar

把这三个 Jar 包添加到 flink/lib 下面。

标签: hbase spark 大数据

本文转载自: https://blog.csdn.net/xianpanjia4616/article/details/128113653
版权归原作者 JasonLee实时计算 所有, 如有侵权,请联系我们删除。

“【Flink 实战系列】Flink CDC 实时同步 Mysql 全量加增量数据到 Hudi”的评论:

还没有评论