0


HDFS的Shell操作

(一)HDFS命令操作实战

1、启动Hadoop集群

2、创建单层目录,执行命令:hdfs dfs -mkdir /ied

使用Hadoop WebUI查看创建的单层目录

3、创建多层目录

执行命令:**

hdfs dfs -mkdir -p /luzhou/lzy

**

使用Hadoop WebUI查看创建的多层目录

4、查看目录

执行命令:**

hdfs dfs -ls /

**,查看根目录

执行命令:**

hdfs dfs -ls /luzhou

**

如果我们要查看根目录里全部的资源,那么要用到地柜参数

**-R**,

执行命令:**

hdfs dfs -ls -R /

**,递归查看

/

目录

5、下载HDFS文件到本地

先删除本地的test.txt文件

执行命令:**

hdfs dfs -get /ied/test.txt

**

查看文件是否下载成功

可以将HDFS上的文件下载到本地指定位置,并且可以更改文件名

执行命令:**

hdfs dfs -get /ied/test.txt /home/exam.txt

**

检查文件是否下载成功

6、删除HDFS文件

执行命令:**

hdfs dfs -rm /ied/test.txt

**

检查是否删除成功

7、删除HDFS目录

执行命令:**

hdfs dfs -rmdir /luzhou

,但是提示

-rmdir

**命令删除不了非空目录。

所以要递归删除才能删除非空目录:**

hdfs dfs -rm -r /luzhou

**(-r:recursive)

删除空目录**

/BigData

,执行命令:

hdfs dfs -rmdir /BigData

**

8、移动目录或文件夹

将**

/ied

目录更名为

/ied01

,执行命令:

hdfs dfs -mv /ied /ied01

**

利用Hadoop WebUI查看是否更名成功

将**

/ied01/exam.txt

更名为

/ied/test.txt

**,执行命令:

**hdfs dfs -mv /ied01/exam.txt****/ied01/test.txt**

查看改名后的**

test.txt

**文件内容

9、文件合并下载

现在**

/ied01

里有一个

test.txt

,创建

sport.txt

music.txt

**并上传

合并**

/ied01

目录的文件下载到本地当前目录的

merger.txt

,执行命令:

hdfs dfs -getmerge /ied01/* merger.txt

**

查看本地的**

merger.txt

**,看是不是三个文件合并后的内容

10、检查文件信息

检查**

test.txt

文件,执行命令:

hdfs fsck /ied01/test.txt -files -blocks -locations -racks

**

执行命令:**

hdfs dfs -put /opt/hadoop-3.3.4.tar.gz /ied01

,将hadoop压缩包上传到HDFS的

/ied01

**目录

查看HDFS上**

hadoop-3.3.4.tar.gz

文件信息,执行命令:

hdfs fsck /ied01/hadoop-3.3.4.tar.gz -files -locations -racks

**

11、创建时间戳文件

创建的是一个空文件,大小为

0

字节

这种空文件,一般用作标识文件,也可叫做时间戳文件,再次在**

/ied01

目录下创建

sunshine.txt

**同名文件

12、复制文件或目录

准备工作:创建**

/ied02

**目录

1、同名复制文件

将**

/ied01/music.txt

复制到

/ied02

里,执行命令:

hdfs dfs -cp /ied01/music.txt /ied02

**

查看拷贝生成的文件

2、改名复制文件

将**

/ied01/test.txt

复制到

/ied02

目录,改名为

hello.txt

,执行命令:

hdfs dfs -cp /ied01/exam.txt /ied02/hello.txt

**

查看拷贝后的文件内容

3、复制目录

将**

/ied01

目录复制到

/ied03

目录,执行命令:

hdfs dfs -cp /ied01 /ied03

**

查看拷贝后的目录

13、查看文件大小

  • 执行命令:**hdfs dfs -du /ied01/test.txt**

14、上传文件

**

-copyFromLocal

类似于

-put

,执行命令:

hdfs dfs -copyFromLocal merger.txt /ied02

**

查看是否上传成功

15、下载文件

**

-copyToLocal

类似于

-get

,执行命令:

hdfs dfs -copyToLocal /ied01/sunshine.txt sunlight.txt

**

检查文件是否下载成功

16、查看某目录下文件个数

执行命令:**

hdfs dfs -count /ied01

**

17、检查Hadoop本地库

-执行命令:**

hdfs checknative -a

**

查看hadoop本地库文件

18、进入和退出安全模式

1、进入安全模式

执行命令:**

hdfs dfsadmin -safemode enter

**, 注意:进入安全模式之后,只能读不能写

2、退出安全模式

标签: hdfs hadoop 大数据

本文转载自: https://blog.csdn.net/HMLieder/article/details/127916756
版权归原作者 HMLieder 所有, 如有侵权,请联系我们删除。

“HDFS的Shell操作”的评论:

还没有评论