背景
最近在做数仓重构项目,遇到一些性能瓶颈,这里记录一下解决办法。
随着业务数据每天都在增加,几年前开发的etl任务开始跑不动了。大表一般是通过增量的方式插入,但是修复bug 或者每月/季度跑一次的情况 需要跑全量,原来的etl任务可能需要跑几个小时,甚至出现超时失败的情况。因此需要优化,下面介绍一些优化方法。(项目是用kettle做的,如果使用其他开发工具,也可以参考下面的思路)
1、配置数据库连接参数
2、去掉临时表 DDL的primary key
3、调整输出组件的数量
4、暂时关闭索引
优化方法
1、配置数据库连接参数
defaultFetchSize:5000
useCursorFetch : true 相当于告诉数据库,分批读取数据,每次打包5000条回来
rewriteBatchedStatements : true 插入数据的时候,批量插入
useServerPrepStmts : true 启动预编译
useCompression : true 客户端跟服务器之间的数据压缩传输
以kettle为例,配置方法如下:
测试结果:
配置参数前:
配置参数后:
性能提升了80倍!
2、去掉DDL中的 primary key
在 etl 的过程中会用中间表来存放一些临时数据,这些中间表可以去掉 ddl中的 primary key,通过逻辑来保证唯一性,只在结果表中使用primary key。primary key会检查相关字段是否重复,从而降低插入速度。(下面的案例 读写字段多,且表输入sql很复杂,所以插入很慢)
测试结果如下:
去掉目标表primary key 后
性能提升了20倍!
3、调整 输出组件数量
如果输出组件还是慢,可以复制多个输出。具体操作:输出组件 右键-改变开始复制的数量
4、暂时关闭索引
维护索引数据需要大量额外的开销,因此全量数据插入前,可以先关掉索引,插入完毕再打开索引。
ALTER TABLE table_name DISABLE KEYS;
ALTER TABLE table_name ENABLE KEYS;
效果对比如下:
性能提高了4倍!
版权归原作者 大壮001 所有, 如有侵权,请联系我们删除。