使用命令操作HDFS文件系统

科技颠覆者  金牌会员 | 2023-11-16 03:57:42 | 来自手机 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 688|帖子 688|积分 2064

HDFS文件系统基本信息

HDFS作为分布式存储的文件系统,有其对数据的路径表达方式。
HDFS同Linux系统一样,均是以/作为根目录的组织形式

  • Linux:        /usr/local/hello.txt
  • HDFS:                /usr/local/hello.txt
命令行

  1. # 老版本用法
  2. hadoop fs [generic options]
复制代码
  1. # 新版本用法
  2. hdfs dfs [generic options]
复制代码
创建文件夹
  1. hadoop fs -mkdir [-p] <path>
  2. hdfs dfs -mkdir [-p] <path>
  3. path 为待创建的目录
  4. -p选项的行为与Linux mkdir -p一致,它会沿着路径创建父目录。
复制代码
查看指定目录下内容
  1. hadoop fs -ls [-h] [-R] [<path> ...]
  2. hdfs dfs -ls [-h] [-R] [<path> ...]
  3. path 指定目录路径
  4. -h 人性化显示文件size
  5. -R 递归查看指定目录及其子目录
复制代码
上传文件到HDFS指定目录下
  1. hadoop fs -put [-f] [-p] <localsrc> ... <dst>
  2. hdfs dfs -put [-f] [-p] <localsrc> ... <dst>
  3. -f 覆盖目标文件(已存在下)
  4. -p 保留访问和修改时间,所有权和权限。
  5. localsrc 本地文件系统(客户端所在机器)
  6. dst 目标文件系统(HDFS)
复制代码
查看HDFS文件内容
  1. hadoop fs -cat <src> ...
  2. hdfs dfs -cat <src> ...
  3. 读取指定文件全部内容,显示在标准输出控制台。
  4. 读取大文件可以使用管道符配合more
  5. hadoop fs -cat <src> | more
  6. hdfs dfs -cat <src> | more
复制代码
下载HDFS文件
  1. hadoop fs -get [-f] [-p] <src> ... <localdst>
  2. hdfs dfs -get [-f] [-p] <src> ... <localdst>
  3. 下载文件到本地文件系统指定目录,localdst必须是目录
  4. -f 覆盖目标文件(已存在下)
  5. -p 保留访问和修改时间,所有权和权限。
复制代码
拷贝HDFS文件
  1. hadoop fs -cp [-f] <src> ... <dst>
  2. hdfs dfs -cp [-f] <src> ... <dst>
  3. -f 如果存在则force覆盖目标文件
复制代码
HDFS数据移动操作
  1. hadoop fs -mv <src> ... <dst>
  2. hdfs dfs -mv <src> ... <dst>
  3. 移动文件到指定文件夹下
  4. 可以使用该命令移动数据,重命名文件的名称
复制代码
HDFS数据操作(追加和删除)

追加数据到HDFS文件中
  1. hadoop fs -appendToFile <localsrc> ... <dst>
  2. hdfs dfs -appendToFile <localsrc> ... <dst>
  3. 将所有给定本地文件的内容追加到给定dst文件。
  4. dst如果文件不存在,将创建该文件。
  5. 如果<localSrc>为-,则输入为从标准输入中读取。
复制代码
HDFS数据删除操作
  1. hadoop fs -rm -r [-skipTrash] URI [URI ...]
  2. hdfs dfs -rm -r [-skipTrash] URI [URI ...]
  3. 删除指定路径的文件或文件夹
  4. -skipTrash 跳过回收站,直接删除
复制代码
开启回收站功能
  1. 回收站功能默认关闭,如果要开启需要在core-site.xml内配置:
  2. <property>
  3. <name>fs.trash.interval</name>
  4. <value>1440</value>
  5. </property>
  6. <property>
  7. <name>fs.trash.checkpoint.interval</name>
  8. <value>120</value>
  9. </property>
  10. # fs.trash.interval 保留分钟数, 1440就是一天
  11. # fs.trash.checkpoint.interval 多久扫描一次
  12. 无需重启集群,在哪个机器配置的,在哪个机器执行命令就生效。
  13. 回收站默认位置在:/user/用户名(hadoop)/.Trash
复制代码
HDFS WEB浏览

http://node1:9870/explorer.html#/

HDFS shell其它命令

https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/FileSystemShell.html

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

科技颠覆者

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表