- 👏作者简介:大家好,我是爱敲代码的小黄,阿里巴巴淘天Java开发工程师,CSDN博客专家
- 📕系列专栏:Spring源码、Netty源码、Kafka源码、JUC源码、dubbo源码系列
- 🔥如果感觉博主的文章还不错的话,请👍三连支持👍一下博主哦
- 🍂博主正在努力完成2023计划中:以梦为马,扬帆起航,2023追梦人
- 📝联系方式:hls1793929520,加我进群,大家一起学习,一起进步,一起对抗互联网寒冬👀
文章目录
Flink-算子
Transformations
算子可以将一个或者多个算子转换成一个新的数据流
使用
Transformations
算子组合可以进行复杂的业务处理
一、Map
DataStream
→
DataStream
Map
比较简单,遍历我们数据流的每一个元素,产生一个新的元素
作用:字符串的转换、去除空格等操作
注意:只能一对一
示例如下:
/**
* 去除当前字符串的前后空格
*/publicclassMyMapFunctionimplementsMapFunction<String,String>{@OverridepublicStringmap(String value)throwsException{return value.trim();}}
二、FlatMap
DataStream
→
DataStream
遍历当前数据流中的每一个元素,产生
N
(N = 0,1,2,3)个元素
作用:与
Map
有点像,主要可以输出多个
注意:一对一、一对多
示例如下:
/**
* 将当前字符串按照逗号进行分割
*/publicclassMyFlatMapFunctionimplementsFlatMapFunction<String,String>{@OverridepublicvoidflatMap(String value,Collector<String> collector)throwsException{if(value ==null|| value.isEmpty()){return;}for(String word : value.split(",")){
collector.collect(word);}}}
三、Filter
DataStream
→
DataStream
过滤算子,根据数据流的元素的业务逻辑,返回
true
或者
false
true
:保留当前元素
false
:丢弃当前元素
作用:过滤某些不符合预期的数据流数据
示例如下:
/**
* 过滤掉处于黑名单的数据流数据
*/publicclassMyFilterFunctionimplementsFilterFunction<String>{privatefinalstaticSet<String> blackSet =newHashSet<>();static{
blackSet.add("num1");
blackSet.add("num2");
blackSet.add("num3");}@Overridepublicbooleanfilter(String value)throwsException{return!blackSet.contains(value);}}
四、Union(真合并)
DataStream
→
DataStream
合并两个或者更多的数据流产生一个新的数据流
新的数据流包括所合并的数据流的元素
注意:需要保证数据流中元素类型一致
/**
* 聚合多条流数据
*/publicclassUnionFunction{privatefinalstaticString hostName ="";privatefinalstaticint port =8088;publicstaticvoidmain(String[] args)throwsException{// 1. 创建流环境StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();// 2. 创建多条输入源DataStreamSource<String> dataStream1 = env.socketTextStream(hostName, port);DataStreamSource<String> dataStream2 = env.socketTextStream(hostName, port);// 3. 合并数据源DataStream<String> unionDataStream = dataStream1.union(dataStream2);// 4. 输出
unionDataStream.print();// 5. 执行
env.execute();}}
五、Connect(假合并)
DataStream,DataStream → ConnectedStreams
合并两个数据流并且保留两个数据流的数据类型,能够共享两个流的状态
代码示例:
publicclassConnectFunction{privatefinalstaticString hostName ="";privatefinalstaticint port =8088;publicstaticvoidmain(String[] args)throwsException{// 1. 创建流环境StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();// 2. 创建多条输入源DataStreamSource<String> dataStream1 = env.socketTextStream(hostName, port);DataStreamSource<String> dataStream2 = env.socketTextStream(hostName, port);ConnectedStreams<String,String> connect = dataStream1.connect(dataStream2);}}
六、CoMap, CoFlatMap
ConnectedStreams → DataStream
CoMap
和
CoFlatMap
并不是具体算子名称,而是一类操作名称
CoMap:基于
ConnectedStreams
数据流做
map
遍历
SingleOutputStreamOperator<Object> map = connect.map(newCoMapFunction<String,String,Object>(){@Override// 第一个数据流转换publicStringmap1(String value)throwsException{return value;}@Override// 第二个数据流转换publicStringmap2(String value)throwsException{return value;}});
CoFlatMap:基于
ConnectedStreams
数据流做
flatMap
遍历
connect.flatMap(newCoFlatMapFunction<String,String,String>(){@OverridepublicvoidflatMap1(String value,Collector<String> collector)throwsException{if(value ==null|| value.isEmpty()){return;}for(String word : value.split(",")){
collector.collect(word);}}@OverridepublicvoidflatMap2(String value,Collector<String> collector)throwsException{if(value ==null|| value.isEmpty()){return;}for(String word : value.split(",")){
collector.collect(word);}}});
七、Split & select(已废弃)
DataStream → SplitStream
根据条件将一个流分成两个或者更多的流
注意:
Split...Select...
中Split
只是对流中的数据打上标记,并没有将流真正拆分。- 通过
Select
算子将流真正拆分出来。 Split...Select...
已经过时
publicstaticvoidmain(String[] args)throwsException{// 1. 创建流环境StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment();// 2. 创建多条输入源DataStreamSource<String> dataStream = env.socketTextStream(hostName, port);// 3. 定义拆分逻辑SplitStream<String> splitStream = dataStream.split(newOutputSelector<String>(){@OverridepublicIterable<String>select(String value){List<String> output =newArrayList<>();if(value.equals("AAA")){
output.add("A");}else{
output.add("B");}return output;}});// 4. 将数据流真正拆分
splitStream.select("A").print("输出A:");
splitStream.select("B").print("输出B:");}
八、side output
流计算过程,可能遇到根据不同的条件来分隔数据流
filter
分割造成不必要的数据复制
OutputTag<String> rtTag =newOutputTag("rt");OutputTag<String> qpsTag =newOutputTag("qps");SingleOutputStreamOperator<Object> process = dataStream.process(newProcessFunction<String,Object>(){@OverridepublicvoidprocessElement(String value,Context ctx,Collector<Object> out)throwsException{if(value.equals("RT")){
ctx.output(rtTag, value);}elseif(value.equals("qps")){
ctx.output(qpsTag, value);}else{
out.collect(value);}}});// 主流
process.print();// rtDataStream<String> rtOutput = process.getSideOutput(rtTag);// qpsDataStream<String> qpsOutput = process.getSideOutput(qpsTag);
九、Iterate
DataStream → IterativeStream → DataStream
Iterate
算子提供了对数据流迭代的支持
迭代有两部分组成:迭代体、终止迭代条件
不满足终止迭代条件的数据流会返回到stream流中,进行下一次迭代
满足终止迭代条件的数据流继续往下游发送
// 获取迭代数据源IterativeStream<String> iterate = dataStreamSource.iterate();// 迭代体// 每次数据累加DataStream<String> minusOne = iterate.map(newMapFunction<String,String>(){@OverridepublicStringmap(String value)throwsException{return value + value;}}).setParallelism(1);;// 设置 map 操作的并行度为1// 终止迭代条件(当数值小于等于10时,均再次进行迭代)DataStream<String> stillGreaterThanZero = minusOne.filter(newFilterFunction<String>(){@Overridepublicbooleanfilter(String value)throwsException{return value.length()<=10;}}).setParallelism(1);// 设置 filter 操作的并行度为1
iterate.closeWith(stillGreaterThanZero);
十、keyBy
DataStream → KeyedStream
根据数据流中指定的字段来分区,相同指定字段值的数据一定是在同一个分区中
按照某
key
进行分组
dataStream.keyBy("word")publicclassWordCount{publicString word;publicint count;publicWordCount(String word,int count){this.word = word;this.count = count;}publicWordCount(){}}// 或者使用KeySelectorKeyedStream<WordCount,String> wordCountObjectKeyedStream = dataStreamSource.keyBy(newKeySelector<WordCount,String>(){@OverridepublicStringgetKey(WordCount wordCount)throwsException{return wordCount.word;}});
**这里一定要注意:如果你采用的是
POJO
类,那么一定要加
Public
修饰符,因为
Flink
通过反射机制访问和操作这些字段,实现分组和聚合等操作**
十一、Reduce
KeyedStream(根据key分组) → DataStream
对于分组完的数据流进行聚合处理
如果只是简单的累加操作,和
sum
区别不大
SingleOutputStreamOperator<WordCount> dataStream = wordCountObjectKeyedStream.reduce(newReduceFunction<WordCount>(){@OverridepublicWordCountreduce(WordCount wordCount1,WordCount wordCount2)throwsException{returnnewWordCount(wordCount1.word, wordCount1.count + wordCount2.count);}});
十二、Aggregations
KeyedStream → DataStream
Aggregations代表的是一类聚合算子,具体算子如下:
// 根据键对流数据中的指定位置(索引为0)的值进行求和。
keyedStream.sum(0)// 根据键对流数据中的名为"key"的字段的值进行求和。
keyedStream.sum("key")// 根据键对流数据中的指定位置(索引为0)的值进行取最小值。
keyedStream.min(0)// 根据键对流数据中的名为"key"的字段的值进行取最小值。
keyedStream.min("key")// 根据键对流数据中的指定位置(索引为0)的值进行取最大值。
keyedStream.max(0)// 根据键对流数据中的名为"key"的字段的值进行取最大值。
keyedStream.max("key")//根据键对流数据中的指定位置(索引为0)的值进行最小值比较,并返回具有最小值的元素。
keyedStream.minBy(0)//根据键对流数据中的名为"key"的字段的值进行最小值比较,并返回具有最小值的元素。
keyedStream.minBy("key")// 根据键对流数据中的指定位置(索引为0)的值进行最大值比较,并返回具有最大值的元素
keyedStream.maxBy(0)// 根据键对流数据中的名为"key"的字段的值进行最大值比较,并返回具有最大值的元素。
keyedStream.maxBy("key")
十三、总结
鲁迅先生曾说:独行难,众行易,和志同道合的人一起进步。彼此毫无保留的分享经验,才是对抗互联网寒冬的最佳选择。
其实很多时候,并不是我们不够努力,很可能就是自己努力的方向不对,如果有一个人能稍微指点你一下,你真的可能会少走几年弯路。
如果你也对 后端架构 和 中间件源码 有兴趣,欢迎添加博主微信:hls1793929520,一起学习,一起成长
我是爱敲代码的小黄,阿里巴巴淘天集团Java开发工程师,双非二本,培训班出身
通过两年努力,成功拿下阿里、百度、美团、滴滴等大厂,想通过自己的事迹告诉大家,努力是会有收获的!
双非本两年经验,我是如何拿下阿里、百度、美团、滴滴、快手、拼多多等大厂offer的?
我们下期再见。
从清晨走过,也拥抱夜晚的星辰,人生没有捷径,你我皆平凡,你好,陌生人,一起共勉。
版权归原作者 爱敲代码的小黄 所有, 如有侵权,请联系我们删除。