(一)HDFS命令操作实战
1、启动Hadoop集群
2、创建单层目录,执行命令:hdfs dfs -mkdir /ied
使用Hadoop WebUI查看创建的单层目录
3、创建多层目录
执行命令:**
hdfs dfs -mkdir -p /luzhou/lzy
**
使用Hadoop WebUI查看创建的多层目录
4、查看目录
执行命令:**
hdfs dfs -ls /
**,查看根目录
执行命令:**
hdfs dfs -ls /luzhou
**
如果我们要查看根目录里全部的资源,那么要用到地柜参数
**-R**,
执行命令:**
hdfs dfs -ls -R /
**,递归查看
/
目录
5、下载HDFS文件到本地
先删除本地的test.txt文件
执行命令:**
hdfs dfs -get /ied/test.txt
**
查看文件是否下载成功
可以将HDFS上的文件下载到本地指定位置,并且可以更改文件名
执行命令:**
hdfs dfs -get /ied/test.txt /home/exam.txt
**
检查文件是否下载成功
6、删除HDFS文件
执行命令:**
hdfs dfs -rm /ied/test.txt
**
检查是否删除成功
7、删除HDFS目录
执行命令:**
hdfs dfs -rmdir /luzhou
,但是提示
-rmdir
**命令删除不了非空目录。
所以要递归删除才能删除非空目录:**
hdfs dfs -rm -r /luzhou
**(-r:recursive)
删除空目录**
/BigData
,执行命令:
hdfs dfs -rmdir /BigData
**
8、移动目录或文件夹
将**
/ied
目录更名为
/ied01
,执行命令:
hdfs dfs -mv /ied /ied01
**
利用Hadoop WebUI查看是否更名成功
将**
/ied01/exam.txt
更名为
/ied/test.txt
**,执行命令:
**hdfs dfs -mv /ied01/exam.txt****/ied01/test.txt**
查看改名后的**
test.txt
**文件内容
9、文件合并下载
现在**
/ied01
里有一个
test.txt
,创建
sport.txt
和
music.txt
**并上传
合并**
/ied01
目录的文件下载到本地当前目录的
merger.txt
,执行命令:
hdfs dfs -getmerge /ied01/* merger.txt
**
查看本地的**
merger.txt
**,看是不是三个文件合并后的内容
10、检查文件信息
检查**
test.txt
文件,执行命令:
hdfs fsck /ied01/test.txt -files -blocks -locations -racks
**
执行命令:**
hdfs dfs -put /opt/hadoop-3.3.4.tar.gz /ied01
,将hadoop压缩包上传到HDFS的
/ied01
**目录
查看HDFS上**
hadoop-3.3.4.tar.gz
文件信息,执行命令:
hdfs fsck /ied01/hadoop-3.3.4.tar.gz -files -locations -racks
**
11、创建时间戳文件
创建的是一个空文件,大小为
0
字节
这种空文件,一般用作标识文件,也可叫做时间戳文件,再次在**
/ied01
目录下创建
sunshine.txt
**同名文件
12、复制文件或目录
准备工作:创建**
/ied02
**目录
1、同名复制文件
将**
/ied01/music.txt
复制到
/ied02
里,执行命令:
hdfs dfs -cp /ied01/music.txt /ied02
**
查看拷贝生成的文件
2、改名复制文件
将**
/ied01/test.txt
复制到
/ied02
目录,改名为
hello.txt
,执行命令:
hdfs dfs -cp /ied01/exam.txt /ied02/hello.txt
**
查看拷贝后的文件内容
3、复制目录
将**
/ied01
目录复制到
/ied03
目录,执行命令:
hdfs dfs -cp /ied01 /ied03
**
查看拷贝后的目录
13、查看文件大小
- 执行命令:**
hdfs dfs -du /ied01/test.txt
**
14、上传文件
**
-copyFromLocal
类似于
-put
,执行命令:
hdfs dfs -copyFromLocal merger.txt /ied02
**
查看是否上传成功
15、下载文件
**
-copyToLocal
类似于
-get
,执行命令:
hdfs dfs -copyToLocal /ied01/sunshine.txt sunlight.txt
**
检查文件是否下载成功
16、查看某目录下文件个数
执行命令:**
hdfs dfs -count /ied01
**
17、检查Hadoop本地库
-执行命令:**
hdfs checknative -a
**
查看hadoop本地库文件
18、进入和退出安全模式
1、进入安全模式
执行命令:**
hdfs dfsadmin -safemode enter
**, 注意:进入安全模式之后,只能读不能写
2、退出安全模式
版权归原作者 HMLieder 所有, 如有侵权,请联系我们删除。