论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
大数据
›
数据仓库与分析
›
Hadoop3:HDFS的Shell操作(常用命令汇总)
Hadoop3:HDFS的Shell操作(常用命令汇总)
怀念夏天
金牌会员
|
2024-10-22 10:54:39
|
显示全部楼层
|
阅读模式
楼主
主题
882
|
帖子
882
|
积分
2646
一、简介
什么是HDFS的Shell操作?
很简单,就是在Linux的终端,通过命令来操作HDFS。
如果,你们学习过git、docker、k8s,应该会发现,这些命令的特点和shell命令非常相似
二、常用命令
1、预备工作相干命令
启动集群
sbin/start-dfs.sh
sbin/start-yarn.sh
复制代码
查看命令帮助
hadoop fs -help rm
复制代码
创建/sanguo文件夹
hadoop fs -mkdir /sanguo
复制代码
2、上传
1、-moveFromLocal:从当地剪切粘贴到HDFS
hadoop fs -moveFromLocal ./shuguo.txt /sanguo
复制代码
2、-copyFromLocal:从当地拷贝文件到HDFS指定路径中
hadoop fs -copyFromLocal ./weiguo.txt /sanguo
复制代码
3、-put:等同于 copyFromLocal,生产环境更风俗用 put
hadoop fs -put ./wuguo.txt /sanguo
复制代码
4、-appendToFile:追加一个文件中的内容到HDFS中已经存在的文件末尾
hadoop fs -appendToFile liubei.txt /sanguo/shuguo.txt
复制代码
注意
此命令可能遇到的错误
解决办法
在hdfs-site.xml文件中添加如下设置,重启Hadoop集群即可
<property>
<name>dfs.client.block.write.replace-datanode-on-failure.policy</name>
<value>NEVER</value>
</property>
复制代码
参考:Hadoop的append命令报错的解决办法
3、下载
1、-copyToLocal:从HDFS拷贝到当地
hadoop fs -copyToLocal /sanguo/shuguo.txt ./
复制代码
2、-get:等同于 copyToLocal,生产环境更风俗用 get
hadoop fs -get /sanguo/shuguo.txt ./shuguo2.txt
复制代码
4、文件的常用操作
1、-ls: 显示目录信息
hadoop fs -ls /sanguo
复制代码
2、-cat:显示文件内容
hadoop fs -cat /sanguo/shuguo.txt
复制代码
3、-chgrp、 -chmod、 -chown :同Linux文件体系中的用法一样,修改文件所属权限
hadoop fs -chmod 777 /sanguo/shuguo.txt
复制代码
4、-mkdir:创建路径
hadoop fs -mkdir /jinguo
复制代码
5、-cp:从HDFS的一个路径拷贝到HDFS的另一个路径
hadoop fs -cp /sanguo/shuguo.txt /jinguo
复制代码
6、-mv:在HDFS目录中移动(剪切)文件
hadoop fs -mv /sanguo/weiguo.txt /jinguo
复制代码
7、-tail:显示一个文件的末尾1kb的数据
hadoop fs -tail /jinguo/shuguo.txt
复制代码
8、-rm:删除文件或文件夹
hadoop fs -rm /sanguo/shuguo.txt
复制代码
9、-rm -r 递归删除目录及目录内里的文件
hadoop fs -rm -r /sanguo
复制代码
10、-du统计文件夹的巨细信息
hadoop fs -du -s -h /jinguo
hadoop fs -du -h /jinguo
复制代码
说明: 27表现一个节点上文件巨细;81表现27*3个副本的总巨细;/jinguo表现查看的目录
11、-setrep:设置HDFS中文件的副本数量
hadoop fs -setrep 10 /jinguo/shuguo.txt
复制代码
这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有 3台 装备,最多也就 3个 副本,只有节点数的增长到10台时副本数才能到达10个,固然,节点数凌驾10个,副本数也只能是10个。
三、补充
hadoop fs xxxx
复制代码
等价与
hdfs dfs xxxx
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
怀念夏天
金牌会员
这个人很懒什么都没写!
楼主热帖
CVE-2017-12635 Couchdb 垂直权限绕过 ...
WEB安全基础入门—操作系统命令注入(s ...
Redis 原理 - Set
IOS手机Charles抓包
恭喜,成功入坑 GitHub 。。。 ...
数据库(Oracle 11g)使用expdp每周进 ...
【牛客】8 企业真题
KubeSphere3.3 私有云部署,在linux上 ...
java中Long和Integer缓存-128~127的简 ...
程序员不撰写代码注释和文档的十大理由 ...
标签云
存储
挺好的
服务器
快速回复
返回顶部
返回列表