CDC 简介
CDC 即**Change Data Capture **变更数据捕获,我们可以通过 CDC 得知数据源表的更新内容(包含Insert Update 和 Delete),并将这些更新内容作为数据流发送到下游系统。捕获到的数据操作具有一个标识符,分别对应数据的增加,修改和删除。
flink mysql cdc 官网传送门>>
+I:新增数据。
-U:一条数据的修改会产生两个U标识符数据。其中-U含义为修改前数据。
+U:修改之后的数据。
-D:删除的数据。
step 1 配置 mysql 开启binlog
** ** flink mysql cdc 的依赖于mysql的binlog日志的监听,所以我们要对MySQL开启binlog日志
修改我们的配置文件**
my.cnf
**,增加:
server_id=1
log_bin=mysql-bin
binlog_format=ROW
expire_logs_days=30
重启 mysql
service mysql restart
然后查询是否开启成功
show variables like '%log_bin%'
step 2 flink 测试 mysql cdc
尝试实时同步mysql的数据,会先同步历史数据,然后再根据binlog进行实时增量同步。
1、下载对应版本的 flink cdc 2.2插件到 ${FLINK_HONE}/lib 目录。插件连接传送门>>>
下载sql版本flink-sql-connector-mysql-cdc.jar,不要下载错非sql版本了。
关于版本支持,目前cdc 2.2好像才刚刚支持flink1.14,具体看github介绍。
2、创建 mysql 表
create database if not exists test;
drop table if exists test.product_info;
CREATE TABLE test.`product_info` (
`id_` int NOT NULL,
`product_id` int DEFAULT NULL,
`product_name` varchar(60) DEFAULT NULL,
PRIMARY KEY (`id_`)
)
insert into test.product_info (id_,product_id,product_name) values
(1,5,'华为'),
(2,9,'apple'),
(3,8,'服务器内存'),
(5,6,'卫衣'),
(7,2,'风扇');
3、flink 创建临时表
CDC 2.0 支持了无锁算法,支持并发读取,为了保证全量数据 + 增量数据的顺序性,需要依赖Flink 的 checkpoint机制,所以作业需要配置 checkpoint,不然只有在1个并行度下才会更新数据。 SQL 作业中配置方式:
Flink SQL> SET 'execution.checkpointing.interval' = '3s';
DataStream 作业配置方式:
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.enableCheckpointing(3000);
SET 'execution.checkpointing.interval' = '3s';
-- sql 客户端要设置3s一个checkpoint,不然不会更新数据。
drop table if EXISTS test.dim_product_info;
create table if not EXISTS test.dim_product_info(
id_ int ,
product_id int,
product_name string,
PRIMARY KEY(id_) NOT ENFORCED
) WITH (
'connector' = 'mysql-cdc',
'hostname' = '192.168.45.1',
'port' = '3306',
'username' = 'root',
'password' = '123456',
'database-name' = 'test',
'table-name' = 'product_info'
);
select * from test.dim_product_info;
4、往mysql表分别做插入、更新、删除操作,可实时查看数据变更。
delete from test.product_info where id_=1;
update test.product_info set product_name='路由器' where id_=5;
insert into test.product_info select 8,6,'书本';
Step 3 flink cdc 实时ETL 实例
-- 设置cp路径时间间隔
SET 'state.checkpoint.path' = 'file:///tmp/flink/checkpoint';
-- 设置cp存储类型
set 'state.checkpoint-storage' ='filesystem'
-- 设置cp时间间隔
SET 'execution.checkpointing.interval' = '3s';
drop table if EXISTS ods_dataGen_order;
-- 创建一个订单表,用datagen生成数据
create table if not EXISTS ods_dataGen_order(
id_ int ,
price decimal(8,3) ,
product_id int,
user_id int,
order_date TIMESTAMP ,
PRIMARY KEY(id_) NOT ENFORCED
)WITH (
'connector' = 'datagen',
'rows-per-second'='3',
'number-of-rows'='1000',
'fields.id_.kind'='sequence',
'fields.id_.start'='1',
'fields.id_.end'='1000',
'fields.price.kind'='random',
'fields.price.min'='10',
'fields.price.max'='1000',
'fields.product_id.kind'='random',
'fields.product_id.min'='1',
'fields.product_id.max'='10',
'fields.user_id.kind'='random',
'fields.user_id.min'='1',
'fields.user_id.max'='50'
);
drop table if EXISTS dim_product_info;
create table if not EXISTS dim_product_info(
id_ int ,
product_id int,
product_name string,
PRIMARY KEY(id_) NOT ENFORCED
) WITH (
'connector' = 'mysql-cdc',
'hostname' = '192.168.45.1',
'port' = '3306',
'username' = 'root',
'password' = '123456',
'database-name' = 'test',
'table-name' = 'product_info'
);
-- drop table if EXISTS ads_restul;
-- create table if not EXISTS ads_restul(
-- id_ int ,
-- price decimal(8,3) ,
-- product_id int,
-- user_id int,
-- order_date TIMESTAMP ,
-- id_2 int ,
-- product_id_2 int,
-- product_name string,
-- PRIMARY KEY(id_) NOT ENFORCED
-- ) WITH ('connector' = 'print');
-- INSERT INTO ads_restul
-- 实时ETL ,订单流水关联产品档
select a.id_ , a.price , a.product_id , a.user_id , a.order_date , b.id_ , b.product_id , b.product_name
from ods_dataGen_order a,dim_product_info b where a.product_id=b.product_id;
end
关于其他的疑问类似于
1、主从库,我是否可以监听从库
2、我不要同步存量,只同步增量等等。。。。
可以看github的解答FAQ(ZH) · ververica/flink-cdc-connectors Wiki · GitHub
版权归原作者 AG南山 所有, 如有侵权,请联系我们删除。