目录
参考
经典大数据开发实战(Hadoop &HDFS&Hive&Hbase&Kafka&Flume&Storm&Elasticsearch&Spark)
概念
组成
一个HDFS集群由一个元数据节点(NameNode)和一些数据节点(DataNode)组成
体系结构
数据块
数据块(Block):HDFS中最基本的存储单位,默认128M。
鸡蛋不能放在同一个蓝子
以上示例是6个DataNode ,每个块分别3个副本
HDFS 文件读取
HDFS 文件写入
常用命令
注意:hdfs dfs = hadoop fs.
1. Is
使用上命令可以查看HDFS系统中的目录和文件。例如,查看HDFS文件系统根目录下的目录和文件,命令如下:"
hadooop fs -ls /
递归列出 HDFS 文件系统根目录下的所有目录和文件,命令如下:"
hadooop fs -ls-R /
2. put
将本地文件上传到 HDFS系统中。例如,将本地文件 a.txt 上传到 HDFS 文件系统的/input文件夹中,命令如下:。
hadoop fs -put a.txt /input/
3.moveFromLocal.
将本地文件移动到HDFS 文件系统中,可以一次移动多个文件。与put命令类似,不同的是该命令执行后源文件将被删除。例如,将本地文件a.txt移动到HDFS的/imnput 文件夹中,命令如下:.
hadoop fs -moveFromLocal a.txt /input/
4.get
使用 get 命令可以将 HDFS 文件系统中的文件下载到本地,注意下载时的文件名不能与本地文件相同,否则会提示文件已经存在。下载多个文件或目录到本地时,要将本地路径设置为文件夹。例如,将 HDFS 根目录的 imput 文件夹中的文件 a.txt 下载到本地当前目录,命令如下:
$ hadoop fs -get /input/a.txt a.txt
将HDFS根目录的input 文件夹下载到本地当前目录,命令如下:
hadoop fs -get /input/ ./
需要注意的是,需要确保用户对当前目录有可写权限。
5.rm
使用rm 命令可以删除 HDFS 系统中的文件或文件夹,每次可以删除多个文件或目录。例删除 HDFS 根目录的 input 文件夹中的文件 a.txt,命令如下:女1、
hadoop fs -rm /input/a.txt
递归删除 HDFS根目录的output 文件夹及该文件夹下的所有内容,命令如下:
$ hadoop fs -rm-r /output
6. mkdir
使用 mkdir 命令可以在 HDFS 系统中创建文件或目录。例如,在 HDFS 根目录下创建文件夹 imnput,命令如下:
hadoop fs -mkdir /input/
也可使用-p参数创建多级目录,如果父目录不存在,则会自动创建父目录。命令如下
$ hadoop fs -mkdir-p /input/file
7.cp
使用 cp命令可以复制 HDFS 中的文件到另一个文件,相当于给文件重命名并保存,但源文件仍然存在。例如,将/imnputa.txt复制到/input/b.txt,并保留 a.txt,命令如下:
hadoop fs -cp /input/a.txt /input/b.txt
8. mv
使用 mv 命令可以移动 HDFS 文件到另一个文件,相当于给文件重命名并保存,源文件已不存在。例如,将/inputa.txt移动到/inputb.txt,命令如下:
hadoop fs -mv /input/a.txt /input/b.txt
9.appendToFile
使用 appendToFie 命令可以将单个或多个文件的内容从本地系统追加到 HDFS 系统的文件中。例如,将本地当前目录的文件 a.txt 的内容追加到HDFS 系统的nputb.txt 文件中,命令如下:
$ hadoop fs -appendToFile a.txt /input/b.txt
若需要一次追加多个本地系统文件的内容,则多个文件用“空格”隔开。例如,将本地文件a.txt和 b.txt的内容追加到HDFS 系统的/inputc.txt文件中,命令如下:
$ hadoop fs -appendToFile a.txt b.txt /input/c.txt
10. cat
使用 cat 命令可以查看并输出 HDFS 系统中某个文件的所有内容。例如,查看 HDFS 系统中的文件/inputa.txt的所有内容,命令如下:
$ hadoop fs -cat /input/a.txt
也可以同时查看并输出HDES中的多个文件内容,结果会将多个文件的内容按照顺序合并轮出。例如,查看HDFS中的文件/inputa.txt和文件nputb.txt 的所有内容,命令如下:
$ hadoop fs -cat /input/a.txt /input/b.txt
javaAPI
引入包
<dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>3.3.1</version></dependency>
创建文件夹
packagehdfs.demo,importjava.io.IoException;/**
* 创建HDFS日录mydir
* /
public class CreateDir{
publie statie void main(string[]args) throws IOException{
Confiquration conf = new Confiquration();
conf.set("fs.default.name","hdfs://192.168.170.133:9000");
FileSystem hdfs =FileSystem.get(conf);
// 创建目录
boolean isok = hdfs.mkdirs(new Path("hdfs:/mydir"));
if(isok){
System.out.println("创建目录成功!");
}else {
System.out.println("创建目录失败!");
}
hdfs.close();
}
}
版权归原作者 Blueeyedboy521 所有, 如有侵权,请联系我们删除。