c语言sscanf函数的用法是什么
258
2022-11-22
0005 - Hadoop-Shell命令指南大全
1 - Hadoop Shell 命令简介
# 适用于任何文件系统
$ hadoop fs
注意:如果以下 Shell 命令或参数不存在,可能是由于 Hadoop 版本过低。
2 - appendToFile
将本地单个文件或多个文件追加合并到目标文件系统。如果源路径设置为 “-”,则从标准输入中读取输入内容追加到目标文件系统。
Usage: hdfs dfs [-appendToFile
示例:
hdfs dfs -appendToFile localfile /user/hadoop/file hdfs dfs -appendToFile localfile1 localfile2 /user/hadoop/file hdfs dfs -appendToFile localfile hdfs://nn.example.com/user/hadoop/file # 从标准输入中读取输入内容 hdfs dfs -appendToFile - hdfs://nn.example.com/user/hadoop/file
3 - cat
将指定文件的内容输出到 stdout。
Usage: hdfs dfs [-cat [-ignoreCrc]
示例:
hdfs dfs -cat /user/hadoop/file hdfs dfs -cat hdfs://nn.example.com/user/hadoop/file1 hdfs://nn.example.com/user/hadoop/file2
4 - checksum
返回文件的校验和信息。
Usage: hdfs dfs [-checksum [-v]
示例:
hdfs dfs -checksum /user/hadoop/file hdfs dfs -checksum hdfs://nn.example.com/user/hadoop/file
5 - chgrp
修改文件或目录的所属组。用户必须是文件/目录的所有者或者超级用户。
Usage: hdfs dfs [-chgrp [-R] GROUP PATH] -R 通过目录结构递归的进行更改。
示例:
hdfs dfs -chgrp -R supergroup /user/hadoop/file
6 - chmod
修改文件或目录的权限。用户必须是文件/目录的所有者或者超级用户。
Usage: hdfs dfs [-chmod [-R]
示例:
hdfs dfs -chmod -R 755 /user/hadoop/file
7 - chown
修改文件或目录的拥有者。用户必须是文件/目录的所有者或者超级用户。
Usage: hdfs dfs [-chown [-R] [OWNER]:[:[GROUP]] PATH] -R 通过目录结构递归的进行更改。
示例:
hdfs dfs -chown -R cloudera:cloudera /user/hadoop/file
8 - concat
将源文件连接到目标文件中。目标文件和源文件应在同一目录中。
Usage: hdfs dfs [-concat
示例:
hdfs dfs -concat /user/hadoop/target-file /user/hadoop/file0 /user/hadoop/file1
9 - copyFromLocal
只能从本地复制到目标文件系统,和 -put 命令相似。
Usage: hdfs dfs [-copyFromLocal [-f] [-p] [-l] [-d] [-t
示例:
hdfs dfs -copyFromLocal -f localfile /user/hadoop/file
10 - copyToLocal
仅能从目标文件系统复制到本地,和 get 命令相似。
Usage: hdfs dfs [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc]
示例:
hdfs dfs -copyToLocal /user/hadoop/file localfile
11 - count
递归统计指定文件下的目录、文件和字节数、配额和使用情况。带有 -count 的输出列是:DIR_COUNT、FILE_COUNT、CONTENT_SIZE、PATHNAME。
Usage: hdfs dfs [-count [-q] [-h] [-v] [-t [
示例:
hdfs dfs -count /user/hadoop/file1 /user/hadoop/file2 hdfs dfs -count -q /user/hadoop/file hdfs dfs -count -q -h /user/hadoop/file hdfs dfs -count -q -h -v /user/hadoop/file hdfs dfs -count -u /user/hadoop/file hdfs dfs -count -u -h /user/hadoop/file hdfs dfs -count -u -h -v /user/hadoop/file hdfs dfs -count -e /user/hadoop/file
12 - cp
将源文件移动到目标路径。此命令可以有多个源路径,这种情况下目标路径必须是一个目录。
Usage: hdfs dfs [-cp [-f] [-p | -p[topax]] [-d]
示例:
hdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2 hdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
13 - createSnapshot
创建目录的快照。此操作需要快照目录的所有者权限。
Usage: hdfs dfs [-createSnapshot
示例:
hdfs dfs -createSnapshot /user/hadoop/dir s1 Created snapshot /user/hadoop/dir/.snapshot/s1
14 - renameSnapshot
重命名一个快照。此操作需要快照目录具有所有者权限。
Usage: hdfs dfs [-renameSnapshot
示例:
hdfs dfs -renameSnapshot /user/hadoop/dir s1 s2
15 - deleteSnapshot
删除快照。此操作需要快照目录具有所有者权限。
Usage: hdfs dfs [-deleteSnapshot
示例:
hdfs dfs -deleteSnapshot /user/hadoop/dir s2
16 - df
显示可用空间。
Usage: hdfs dfs [-df [-h] [
示例:
hdfs dfs -df /user/hadoop/dir
17 - du
显示给定目录中包含文件和目录的大小或文件的长度(如果它只是一个文件)。
Usage: hdfs dfs [-du [-s] [-h] [-v] [-x]
du 返回以下格式:
size disk_space_consumed_with_all_replicas full_path_name 文件大小 所有副本占用的磁盘空间 完整路径名
示例:
hdfs dfs -du /user/hadoop/dir /user/hadoop/file
18 - expunge
从回收站中永久删除早于检查点中保留阈值的文件,并创建新的检查点。
创建检查点后,回收站中最近删除的文件将移动到检查点下。检查点中早于 fs.trash.interval 的文件将在下次调用 -expunge 命令时永久删除。
如果文件系统支持该功能,用户可以通过存储为 fs.trash.checkpoint.interval(在 core-site.xml 中)的参数配置定期创建和删除检查点。这个值应该小于或等于 fs.trash.interval。
Usage: [-expunge [-immediate] [-fs
示例:
hdfs fs -expunge --immediate -fs s3a://landsat-pds/
19 - find
查找与指定表达式匹配的所有文件。如果未指定路径,则默认为当前工作目录。如果未指定表达式,则默认为 -print。
Usage: hdfs dfs [-find
示例:
hdfs dfs -find / -name test hdfs dfs -find / -name test -print
20 - get
将文件复制到本地文件系统。
Usage: hdfs dfs [-get [-f] [-p] [-ignoreCrc] [-crc]
示例:
hdfs dfs -get /user/hadoop/file localfile hdfs dfs -get hdfs://nn.example.com/user/hadoop/file localfile
21 - getfacl
显示文件和目录的访问控制列表 (ACL)。如果目录具有默认 ACL dfs.namenode.acls.enabled(在 hdfs-site.xml 中),则 getfacl 会显示默认 ACL。
Usage: hdfs dfs [-getfacl [-R]
示例:
hdfs dfs -getfacl /user/hadoop/file hdfs dfs -getfacl -R /user/hadoop/dir
22 - getfattr
显示文件或目录的扩展属性名称和值(如果存在)。
Usage: hdfs dfs [-getfattr [-R] {-n name | -d} [-e en]
示例:
hdfs dfs -getfattr -d /user/hadoop/file hdfs dfs -getfattr -R -n user.myAttr /user/hadoop/dir
23 - getmerge
将源目录和目标文件作为输入,并将 src 中的文件连接到目标本地文件中。
Usage: hdfs dfs [-getmerge [-nl] [-skip-empty-file]
示例:
hdfs dfs -getmerge -nl /src /opt/output.txt hdfs dfs -getmerge -nl /src/file1.txt /src/file2.txt /output.txt
24 - head
显示文件的开头 1KB 字节内容输出到 stdout。
Usage: hdfs dfs [-head
示例:
hdfs dfs -head /user/hadoop/file
25 - help
显示给定命令或所有命令的帮助。
Usage: hdfs dfs [-help [cmd]]
示例:
hdfs dfs -help hdfs dfs -help ls
26 - ls
如果是文件,则按照以下格式返回文件的统计信息:
permissions number_of_replicas userid groupid filesize modification_date modification_time filename 权限 副本系数 用户ID 组ID 文件大小 修改日期 修改时间 文件名
如果是目录,则它像在 Unix 中一样返回其直接子级的列表。一个目录被列为:
permissions userid groupid modification_date modification_time dirname 权限 用户ID 组ID 修改日期 修改时间 文件名
默认情况下,目录中的文件按文件名排序。
Usage: hdfs dfs [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [-e] [
示例:
hdfs dfs -ls /user/hadoop/file hdfs dfs -ls -h /user/hadoop/dir
27 - mkdir
在指定位置创建目录。
Usage: hdfs dfs [-mkdir [-p]
示例:
hdfs dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2 hdfs dfs -mkdir -p /user/hadoop/dir/a/b/c
28 - moveFromLocal
源文件复制后会被删除,与 put 命令类似。
Usage: hdfs dfs [-moveFromLocal [-f] [-p] [-l] [-d]
示例:
hdfs dfs -copyFromLocal /user/hadoop/file1 /user/hadoop/file2
29 - moveToLocal
显示尚未实现消息。
Usage: hdfs dfs [-moveToLocal
30 - mv
将源文件移动到目标路径。此命令可以有多个源路径,这种情况下目标路径必须是一个目录。不允许跨文件系统移动文件。
Usage: hdfs dfs [-mv
示例:
hdfs dfs -mv /user/hadoop/file1 /user/hadoop/file2 hdfs dfs -mv hdfs://nn.example.com/file1 hdfs://nn.example.com/file2 hdfs://nn.example.com/dir1
31 - put
将单个或多个源路径从本地文件系统复制到目标文件系统。如果源路径设置为 “-”,则从标准输入中读取输入内容追加到目标文件系统。
Usage: hdfs dfs [-put [-f] [-p] [-l] [-d] [-t
示例:
hdfs dfs -put localfile /user/hadoop/file hdfs dfs -put -f localfile1 localfile2 /user/hadoop/dir # 从标准输入中读取输入内容 hdfs dfs -put - /user/hadoop/file
32 - rm
删除指定的文件。
如果启用了回收站,文件系统会将删除的文件移动到回收站目录。
目前,回收站功能默认是禁用的。可以通过为参数 fs.trash.interval(在 core-site.xml 中)设置一个大于0的值来启用回收站。
Usage: hdfs dfs [-rm [-f] [-r|-R] [-skipTrash] [-safely]
示例:
hdfs dfs -rm hdfs://nn.example.com/file /user/hadoop/dir
33 - rmdir
删除空目录。
Usage: hdfs dfs [-rmdir [--ignore-fail-on-non-empty]
示例:
hdfs dfs -rmdir /user/hadoop/emptydir
34 - setfacl
设置文件和目录的访问控制列表(ACL)。
Usage: hdfs dfs [-setfacl [-R] [{-b|-k} {-m|-x
示例:
hdfs dfs -setfacl -m user:hadoop:rw- /user/hadoop/file hdfs dfs -setfacl -x user:hadoop /user/hadoop/file hdfs dfs -setfacl -b /user/hadoop/file hdfs dfs -setfacl -k /user/hadoop/dir hdfs dfs -setfacl --set user::rw-,user:hadoop:rw-,group::r--,other::r-- /user/hadoop/file hdfs dfs -setfacl -R -m user:hadoop:r-x /user/hadoop/dir hdfs dfs -setfacl -m default:user:hadoop:r-x /user/hadoop/dir
35 - setfattr
设置文件或目录的扩展属性名称和值。
Usage: hdfs dfs [-setfattr {-n name [-v value] | -x name}
示例:
hdfs dfs -setfattr -n user.myAttr -v myValue /user/hadoop/file hdfs dfs -setfattr -n user.noValue /user/hadoop/file hdfs dfs -setfattr -x user.myAttr /user/hadoop/file
36 - setrep
修改一个文件的副本系数,如果是目录,则该命令递归的更改以该目录为根目录树下所有文件的副本系数。执行此命令时,将忽略 EC 文件。
Usage: hdfs dfs [-setrep [-R] [-w]
示例:
hdfs dfs -setrep -w 3 /user/hadoop/dir
37 - stat
返回指定格式文件/目录的统计信息。格式接受八进制 (%a) 和符号 (%A) 的权限、以字节为单位的文件大小 (%b)、类型 (%F)、所有者的组名 (%g)、名称 (%n)、块大小 (%o) )、复制 (%r)、所有者的用户名 (%u)、访问日期 (%x, %X) 和修改日期 (%y, %Y)。%x 和 %y 将 UTC 日期显示为 “yyyy-MM-dd HH:mm:ss”,%X 和 %Y 显示自 UTC 1970 年 1 月 1 日以来的毫秒数。如果未指定格式,则默认使用 %y。
Usage: hdfs dfs [-stat [format]
示例:
hdfs dfs -stat /user/hadoop/file 2021-08-25 09:25:23 hdfs dfs -stat "type:%F perm:%a %u:%g size:%b mtime:%y atime:%x name:%n" /user/hadoop/file type:regular file perm:a hdfs:supergroup size:17 mtime:2021-08-25 09:25:23 atime:x name:file
38 - tail
显示文件的最后 1KB 字节内容输出到 stdout。
Usage: hdfs dfs [-tail [-f] [-s
示例:
hdfs dfs -tail /user/hadoop/file
39 - test
判断文件/目录信息。
Usage: hdfs dfs [-test -[defswrz]
示例:
hdfs dfs -test -e filename
40 - text
以文本格式输出源文件并。允许的格式为 zip 和 TextRecordInputStream。
Usage: hdfs dfs [-text [-ignoreCrc]
示例:
hdfs dfs -text /user/hadoop/file
41 - touch
将指定的文件的访问和修改时间更新为当前时间。如果该文件不存在,则创建一个空文件,并将当前时间作为该文件的时间戳。
Usage: hdfs dfs [-touch [-a] [-m] [-t TIMESTAMP (yyyyMMdd:HHmmss) ] [-c]
示例:
hdfs dfs -touch /user/hadoop/file hdfs dfs -touch -m -t 20210825:230000 /user/hadoop/fileame hdfs dfs -touch -t 20210825:230000 /user/hadoop/file hdfs dfs -touch -a /user/hadoop/file
42 - touchz
创建一个空文件。如果文件以非 0KB 字节存在,则返回错误。
Usage: hdfs dfs [-touchz
示例:
hdfs dfs -touchz /user/hadoop/file
43 - truncate
与指定文件模式匹配的所有文件截断为指定长度。
Usage: hdfs dfs [-truncate [-w]
示例:
hdfs dfs -truncate 55 /user/hadoop/file1 /user/hadoop/file2 hdfs dfs -truncate -w 127 hdfs://nn1.example.com/user/hadoop/file1
44 - usage
返回单个命令的帮助信息。
Usage: hdfs dfs [-usage [cmd]]
示例:
hdfs dfs -usage ls
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~