Hadoop是一个开源的分布式系统架构,旨在解决海量数据的存储和计算问题,Hadoop的核心组件包括Hadoop分布式文件系统(HDFS)、MapReduce编程模型和YARN资源管理器,最近需求需要用到HDFS和YARN。
文章目录
HDFS
HDFS在Hadoop中负责数据的存储,是一个分布式文件系统。HDFS的主要角色包括以下几种:
- NameNode(nn):负责存储文件的元数据,包括文件名、目录结构、文件属性,此外还记录了每个文件的块列表以及这些块分别存储在哪些DataNode上。
- DataNode (dn):在本地文件系统中保存文件的实际数据块,客户端通过dn对数据块进行读/写操作,同时还存储这些数据块的校验和,以确保数据的完整性。
- Secondary NameNode (2nn):定期对NameNode的元数据进行备份操作,以防数据丢失。
- Client:客户端负责先与NameNode交互获取文件的位置信息后,再与DataNode交互,进行数据的读写操作。
优缺点
优点:
高容错性:数据会进行多个备份,当其中一个备份丢失时,系统能够自动进行恢复。
处理大规模数据:无论是大规模数据还是大量的文件,都能够有效地进行处理。
缺点:
延迟较高:不适用于快速响应的场景,例如毫秒级别的数据访问无法实现。
小文件存储效率低下:当存储大量小文件时,会大量占用NameNode的内存来记录文件目录和块信息,而NameNode的内存资源是有限的,并且小文件的寻址时间可能会超过实际的读取时间。
写入和修改的限制:不支持多个线程同时对同一个文件进行写入操作,且只能对文件进行追加操作,不能对文件内容进行随机修改。
文件块大小
在Hadoop 1.x版本里,默认的文件块大小为64MB,在2.x和3.x版本中为128MB,当寻址时间为传输时间的百分之一是最佳状态,如果单个文件块过小,那么大文件会被切割为很多块,从而增加寻址时间,反之,若文件块过大,那么传输时间会远大于寻址时间。
HDFS的读写原理
(1)文件写入原理
(2) 网络拓扑-节点距离计算
在HDFS进行数据写入时,NameNode会选择与待上传数据距离最近的DataNode来接收并存储这些数据。
节点距离的计算方式:两个节点到达最近的共同祖先的距离总和。
(3)机架感知原理-副本存储节点选择
副本节点选择:
- 第一个副本在Client所处的节点上;如果客户端在集群外,随机选一个。
- 第二个副本在另一个机架的随机一个节点。
- 第三个副本在第二个副本所在机架的随机节点
(4)读文件原理
(5)NN 和 2NN 工作原理
NameNode 中的元数据存放在内存中,当对元数据进行更新或者添加操作时,会修改内存中的元数据并追加到 edits log 中,为了防止edits log过大,导致查询效率低的问题,SecondaryNameNode会定时触发checkpoint操作,将NameNode的edits log和fs image合并,生成一个新的fs image,以减少edits log的大小,并将新的fs image传回给NameNode,以提高元数据的查询效率。
(6)DataNode工作原理
常用命令
(1)查看命令帮助
hadoop fs -help rm
(2)启动Hadoop集群
sbin/start-dfs.sh
sbin/start-yarn.sh
(3)创建文件夹
hadoop fs -mkdir /learn
(4)上传文件
- -put:和copyFromLocal一样,生产环境更多用 put
vim a.txt
aaa
bbb
hadoop fs -put a.txt /learn
- -moveFromLocal:从本地移动到 HDFS
hadoop fs -moveFromLocal b.txt /learn
- -copyFromLocal:从本地文件拷贝文件到 HDFS
hadoop fs -copyFromLocal c.txt /learn
- -appendToFile:追加一个文件到HDFS已经存在的文件末尾
hadoop fs -appendToFile d.txt /learn/c.txt
(5)下载文件
- -get:和copyToLocal一样,生产环境更习惯用 get
hadoop fs -get /learn ./
- -copyToLocal:从 HDFS 拷贝到本地
hadoop fs -copyToLocal /data ./
(6)其他操作
- -mkdir:创建目录
hadoop fs -mkdir /file
- -ls: 显示目录信息
hadoop fs -ls /learn
- -cat:显示文件内容
- -chgrp、-chmod、-chown:修改文件所属权限
hadoop fs -chmod 777/learn/a.txt
- -cp:从 HDFS 的一个路径拷贝到 HDFS 的另一个路径
hadoop fs -cp /learn/a.txt /file
- -mv:在 HDFS 目录中移动文件
hadoop fs -mv /learn/b.txt /file2
- -tail:显示一个文件的末尾 1kb 的数据
hadoop fs -tail /learn/a.txt
- -rm:删除文件或文件夹
hadoop fs -rm /learn/a.txt
- -rm -r:递归删除目录及目录里面内容
hadoop fs -rm -r /learn
- -du 统计文件夹的大小信息
hadoop fs -du /file2
7 表示文件大小,21 表示 3个副本的总大小
- -setrep:设置 HDFS 中文件的副本数量
hadoop fs -setrep 10/file2
目前只有3台节点,最多也就3个副本,当节点数增加到10时,副本数才能到10。
HDFS 的 API 操作
(1)创建目录
publicclassHdfsLearn{@TestpublicvoidtestCreate()throwsIOException,URISyntaxException,InterruptedException{Configuration configuration =newConfiguration();FileSystem fs =FileSystem.get(newURI("hdfs://192.168.235.130:8020"), configuration,"liang");
fs.mkdirs(newPath("/learn/file.txt"));
fs.close();}}
(2)上传文件
@TestpublicvoidtestCopyFromLocalFile()throwsIOException,InterruptedException,URISyntaxException{Configuration configuration =newConfiguration();
configuration.set("dfs.replication","3");FileSystem fs =FileSystem.get(newURI("hdfs://192.168.235.130:8020"), configuration,"liang");
fs.copyFromLocalFile(newPath("D:\\hadoop\\learn.txt"),newPath("/test/file4"));
fs.close();}
(3)下载文件
@TestpublicvoidtestCopyToLocalFile()throwsIOException,InterruptedException,URISyntaxException{Configuration configuration =newConfiguration();FileSystem fs =FileSystem.get(newURI("hdfs://192.168.235.130:8020"), configuration,"liang");// boolean delSrc 指是否将原文件删除// Path src 指要下载的文件路径// Path dst 指将文件下载到的路径// boolean useRawLocalFileSystem 是否开启文件校验
fs.copyToLocalFile(false,newPath("/learn/a.txt"),newPath("D:\\hadoop\\b.txt"),true);
fs.close();}
(4)文件移动或者更名
@TestpublicvoidtestRename()throwsIOException,InterruptedException,URISyntaxException{Configuration configuration =newConfiguration();FileSystem fs =FileSystem.get(newURI("hdfs://192.168.235.130:8020"), configuration,"liang");
fs.rename(newPath("/learn/a.txt"),newPath("/learn/b.txt"));
fs.close();}
(5)删除文件
@TestpublicvoidtestDelete()throwsIOException,InterruptedException,URISyntaxException{Configuration configuration =newConfiguration();FileSystem fs =FileSystem.get(newURI("hdfs://192.168.235.130:8020"), configuration,"liang");
fs.delete(newPath("/file2"),true);
fs.close();}
(6)文件详情查看
@TestpublicvoidtestListFiles()throwsIOException,InterruptedException,URISyntaxException{Configuration configuration =newConfiguration();FileSystem fs =FileSystem.get(newURI("hdfs://192.168.235.130:8020"), configuration,"liang");// 获取文件详情RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(newPath("/"),true);while(listFiles.hasNext()){LocatedFileStatus fileStatus = listFiles.next();System.out.println(fileStatus.getPath());System.out.println(fileStatus.getPermission());System.out.println(fileStatus.getOwner());System.out.println(fileStatus.getGroup());System.out.println(fileStatus.getLen());System.out.println(fileStatus.getModificationTime());System.out.println(fileStatus.getReplication());System.out.println(fileStatus.getBlockSize());System.out.println(fileStatus.getPath().getName());// 获取块信息BlockLocation[] blockLocations = fileStatus.getBlockLocations();System.out.println(Arrays.toString(blockLocations));}
fs.close();}
(7)文件判断
@TestpublicvoidtestListStatus()throwsIOException,InterruptedException,URISyntaxException{Configuration configuration =newConfiguration();FileSystem fs =FileSystem.get(newURI("hdfs://192.168.235.130:8020"), configuration,"liang");// 判断是文件还是文件夹FileStatus[] listStatus = fs.listStatus(newPath("/"));for(FileStatus fileStatus : listStatus){// 如果是文件if(fileStatus.isFile()){System.out.println("f:"+ fileStatus.getPath().getName());}else{System.out.println("d:"+ fileStatus.getPath().getName());}}
fs.close();}
版权归原作者 vibag 所有, 如有侵权,请联系我们删除。