0


MapReduce案列-数据去重

文章目录

一,案例分析

(一)数据去重介绍

数据去重主要是为了掌握利用并行化思想来对数据进行有意义的筛选,数据去重指去除重复数据的操作。在大数据开发中,统计大数据集上的多种数据指标,这些复杂的任务数据都会涉及数据去重。

(二)案例需求

文件file1.txt本身包含重复数据,并且与file2.txt同样出现重复数据,现要求使用Hadoop大数据相关技术对以上两个文件进行去重操作,并最终将结果汇总到一个文件中。

编写MapReduce程序,在Map阶段采用Hadoop默认作业输入方式后,将key设置为需要去重的数据,而输出的value可以任意设置为空。

在Reduce阶段,不需要考虑每一个key有多少个value,可以直接将输入的key复制为输出的key,而输出的value可以任意设置为空,这样就会使用MapReduce默认机制对key(也就是文件中的每行内容)自动去重。

二,案例实施

(一)准备数据文件

(1)启动hadoop服务

启动hadoop服务,输入命令:

start-all.sh

在这里插入图片描述

(2)在虚拟机上创建文本文件

1.在/opt/mrtxt目录下创建两个文本文件 - file4.txt、file5.txt
在这里插入图片描述
2.输入命令:

vi /export/mrtxt/file4.txt

,向file4添加如下内容:

2022-12-1 a
2022-12-2 b
2022-12-3 c
2022-12-4 d
2022-12-5 a
2022-12-6 b
2022-12-7 c
2022-12-3 c

3.输入命令:

vi /export/mrtxt/file5.txt

,向file5添加如下内容:

2022-12-1 b
2022-12-2 a
2022-12-3 b
2022-12-4 d
2022-12-5 a
2022-12-6 c
2022-12-7 d
2022-12-3 c

(3)上传文件到HDFS指定目录

1.创建/dedup/input目录,执行命令:

hdfs dfs -mkdir -p /dedup/input

在这里插入图片描述
2.将两个文本文件 file4.txt与file5.txt,上传到HDFS的/dedup/input目录
在这里插入图片描述

(二)Map阶段实现

使用IntelliJ开发工具创建Maven项目Deduplicate,并且新创建net.army.mr包,在该路径下编写自定义Mapper类DeduplicateMapper,主要用于读取数据集文件将TextInputFormat默认组件解析的类似<0,2022-11-1 a >键值对修改为<2022-11-1 a,null>。

(1)创建Maven项目:Deduplicate

1.配置好如下图所示,然后单击【Create】按钮
在这里插入图片描述2.成功创建界面
在这里插入图片描述3.删除Main类,右击【Main】类,单击【Delete】
在这里插入图片描述

(2)添加相关依赖

1.在pom.xml文件里添加hadoop和junit依赖,添加内容如下:

<dependencies><!--hadoop客户端--><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>3.3.4</version></dependency><!--单元测试框架--><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>4.13.2</version></dependency></dependencies>

在这里插入图片描述2.刷新maven,将依赖下载到本地仓库
在这里插入图片描述

(3)创建日志属性文件

1.在resources目录里创建log4j.properties文件,右击【resources】,选择【New】,单击【Resource Bundle】
在这里插入图片描述2.在弹出的对话框中输入:log4j,单击【OK】按钮
在这里插入图片描述

3.向log4j.properties文件添加如下内容:

log4j.rootLogger=INFO, stdout, logfile
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayoutlog4j.appender.stdout.layout.ConversionPattern=%d %p [%c]-%m%n
log4j.appender.logfile=org.apache.log4j.FileAppenderlog4j.appender.logfile.File=target/deduplicate.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayoutlog4j.appender.logfile.layout.ConversionPattern=%d %p [%c]-%m%n

在这里插入图片描述

(4)创建去重映射器类:DeduplicateMapper

1.右击【net.army.mr】包,选择【New】,单击【Java Class】
在这里插入图片描述
2.在弹出的对话框中输入:DeduplicateMapper,按下回车键,创建成功
在这里插入图片描述
3.编写代码

packagenet.army.mr;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.NullWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Mapper;importjava.io.IOException;/**
 * 作者:梁辰兴
 * 日期:2022/12/14
 * 功能:去重映射器类
 */publicclassDeduplicateMapperextendsMapper<LongWritable,Text,Text,NullWritable>{privatestaticText field =newText();// <0,2022-12-3 c> --> <2022-12-3 c,null>@Overrideprotectedvoidmap(LongWritable key,Text value,Context context)throwsIOException,InterruptedException{
        field = value;
        context.write(field,NullWritable.get());}}

(三)Reduce阶段实现

根据Map阶段的输出结果形式,同样在net.army.mr包下,自定义Reducer类DeduplicateReducer,主要用于接受Map阶段传递来的数据,根据Shuffle工作原理,键值key相同的数据就会被合并,因此输出数据就不会出现重复数据了。

(1)创建去重归并器类:DeduplicateReducer

1.右击【net.army.mr】包,选择【New】,单击【Java Class】
在这里插入图片描述
2.在弹出的对话框中输入:DeduplicateReducer,按下回车键,创建成功
在这里插入图片描述
3.编写代码

packagenet.army.mr;importorg.apache.hadoop.io.NullWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Reducer;importjava.io.IOException;/**
 * 作者:梁辰兴
 * 日期:2022/12/14
 * 功能:去重归并器类
 */publicclassDeduplicateReducerextendsReducer<Text,NullWritable,Text,NullWritable>{// <2022-12-3 c,null> <2022-12-4 d,null><2022-12-4 d,null>@Overrideprotectedvoidreduce(Text key,Iterable<NullWritable> values,Context context)throwsIOException,InterruptedException{
        context.write(key,NullWritable.get());}}

(四)Driver程序主类实现

编写MapReduce程序运行主类DeduplicateDriver,主要用于设置MapReduce工作任务的相关参数,对HDFS上/dedup/input目录下的源文件实现去重,并将结果输入到HDFS的/dedup/output目录下。

(1)创建去重驱动器类:DeduplicateDriver

1.右击【net.army.mr】包,选择【New】,单击【Java Class】
在这里插入图片描述
2.在弹出的对话框中输入:DeduplicateDriver,按下回车键,创建成功
在这里插入图片描述
3.编写代码

packagenet.army.mr;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FSDataInputStream;importorg.apache.hadoop.fs.FileStatus;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IOUtils;importorg.apache.hadoop.io.NullWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;importjava.net.URI;/**
 * 作者:梁辰兴
 * 日期:2022/12/14
 * 功能:去重驱动器类
 */publicclassDeduplicateDriver{publicstaticvoidmain(String[] args)throwsException{// 创建配置对象Configuration conf =newConfiguration();// 设置数据节点主机名属性
        conf.set("dfs.client.use.datanode.hostname","true");// 获取作业实例Job job =Job.getInstance(conf);// 设置作业启动类
        job.setJarByClass(DeduplicateDriver.class);// 设置Mapper类
        job.setMapperClass(DeduplicateMapper.class);// 设置map任务输出键类型
        job.setMapOutputKeyClass(Text.class);// 设置map任务输出值类型
        job.setMapOutputValueClass(NullWritable.class);// 设置Reducer类
        job.setReducerClass(DeduplicateReducer.class);// 设置reduce任务输出键类型
        job.setOutputKeyClass(Text.class);// 设置reduce任务输出值类型
        job.setOutputValueClass(NullWritable.class);// 定义uri字符串String uri ="hdfs://master:9000";// 创建输入目录Path inputPath =newPath(uri +"/dedup/input");// 创建输出目录Path outputPath =newPath(uri +"/dedup/output");// 获取文件系统FileSystem fs =FileSystem.get(newURI(uri), conf);// 删除输出目录
        fs.delete(outputPath,true);// 给作业添加输入目录FileInputFormat.addInputPath(job, inputPath);// 给作业设置输出目录FileOutputFormat.setOutputPath(job, outputPath);// 等待作业完成
        job.waitForCompletion(true);// 输出统计结果System.out.println("======统计结果======");FileStatus[] fileStatuses = fs.listStatus(outputPath);for(int i =1; i < fileStatuses.length; i++){// 输出结果文件路径System.out.println(fileStatuses[i].getPath());// 获取文件输入流FSDataInputStream in = fs.open(fileStatuses[i].getPath());// 将结果文件显示在控制台IOUtils.copyBytes(in,System.out,4096,false);}}}

(五)运行去重驱动器类,查看结果

(1)运行DeduplicateDriver类

在这里插入图片描述

(2)下载并查看文件

1.下载文件
进入mrtxt目录,输入命令:

cd /export/mrtxt

下载文件,再输入命令:

hdfs dfs -get /dedup/output/part-r-00000

在这里插入图片描述
2.查看文件,输入命令:

cat part-r-00000

在这里插入图片描述


本文转载自: https://blog.csdn.net/Pythonwudud/article/details/128356867
版权归原作者 人生苦短@我用python 所有, 如有侵权,请联系我们删除。

“MapReduce案列-数据去重”的评论:

还没有评论