头歌 分布式文件系统HDFS 答案

打印 上一主题 下一主题

主题 873|帖子 873|积分 2619

第1关:HDFS的基本操作

  在右侧命令行中启动Hadoop,进行如下操作。
  

  • 在HDFS中创建/usr/output/文件夹;
  

  • 在当地创建hello.txt文件并添加内容:“HDFS的块比磁盘的块大,其目标是为了最小化寻址开销。”;
  

  • 将hello.txt上传至HDFS的/usr/output/目次下;
  

  • 删除HDFS的/user/hadoop目次;
  

  • 将Hadoop上的文件hello.txt从HDFS复制到当地/usr/local目次。
  1. start-dfs.sh
  2. hadoop fs -mkdir /usr
  3. hadoop fs -mkdir /usr/output
  4. vim hello.txt
  5. hadoop fs -put hello.txt /usr/output
  6. hadoop fs -rm -r /user/hadoop
  7. hadoop fs -copyToLocal /usr/output/hello.txt /usr/local
复制代码
第2关:HDFS-JAVA接口之读取文件

  在右侧代码编辑区中编写代码实现如下功能:
  

  • 使用FSDataInputStream获取HDFS的/user/hadoop/目次下的task.txt的文件内容,并输出,此中uri为hdfs://localhost:9000/user/hadoop/task.txt。
  1. package step2;
  2. import java.io.IOException;
  3. import java.io.InputStream;
  4. import java.net.URI;
  5. import org.apache.hadoop.conf.Configuration;
  6. import org.apache.hadoop.fs.FileSystem;
  7. import org.apache.hadoop.fs.Path;
  8. import org.apache.hadoop.io.IOUtils;
  9. public class FileSystemCat {
  10.    
  11.     public static void main(String[] args) throws IOException {
  12.         //请在Begin-End之间添加你的代码,完成任务要求。
  13.         /********* Begin *********/
  14.         URI uri = URI.create("hdfs://localhost:9000/user/hadoop/task.txt");
  15.         Configuration config = new Configuration();
  16.         FileSystem fs = FileSystem.get(uri,config);
  17.         InputStream in = null;
  18.         try{
  19.             in = fs.open(new Path(uri));
  20.             IOUtils.copyBytes(in, System.out,2048,false);
  21.         }catch (Exception e){
  22.             IOUtils.closeStream(in);
  23.         }
  24.         
  25.         
  26.         /********* End *********/
  27.     }
  28. }
复制代码

  第3关:HDFS-JAVA接口之上传文件

  在右侧代码编辑区和命令行中,编写代码与脚本实现如下功能:
  

  • 在/develop/input/目次下创建hello.txt文件,并输入如下数据:迢迢牵牛星,皎皎河汉女。纤纤擢素手,札札弄机杼。终日不成章,泣涕零如雨。河汉清且浅,相去复几许?盈盈一水间,脉脉不得语。《迢迢牵牛星》
  

  • 使用FSDataOutputStream对象将文件上传至HDFS的/user/tmp/目次下,并打印进度。
  先在命令行创建文件,并启动hadoop
  1. mkdir /develop
  2. mkdir /develop/input
  3. cd /develop/input
  4. vim hello.txt
  5. start-dfs.sh
复制代码
            
           然后在代码文件中写入:
  1. package step3;
  2. import java.io.BufferedInputStream;
  3. import java.io.FileInputStream;
  4. import java.io.FileNotFoundException;
  5. import java.io.IOException;
  6. import java.io.InputStream;
  7. import java.net.URI;
  8. import java.io.File;
  9. import org.apache.hadoop.conf.Configuration;
  10. import org.apache.hadoop.fs.FSDataOutputStream;
  11. import org.apache.hadoop.fs.FileSystem;
  12. import org.apache.hadoop.fs.Path;
  13. import org.apache.hadoop.io.IOUtils;
  14. import org.apache.hadoop.util.Progressable;
  15. public class FileSystemUpload {
  16.    
  17.     public static void main(String[] args) throws IOException {
  18.         //请在 Begin-End 之间添加代码,完成任务要求。
  19.         /********* Begin *********/
  20. File localPath = new File("/develop/input/hello.txt");
  21.         String hdfsPath = "hdfs://localhost:9000/user/tmp/hello.txt";
  22.         InputStream in = new BufferedInputStream(new FileInputStream(localPath));
  23.         Configuration config = new Configuration();
  24.         FileSystem fs = FileSystem.get(URI.create(hdfsPath), config);
  25.         long fileSize = localPath.length() > 65536 ? localPath.length() / 65536 : 1;
  26.         FSDataOutputStream out = fs.create(new Path(hdfsPath), new Progressable() {
  27.             long fileCount = 0;
  28.             public void progress() {
  29.                 System.out.println("总进度" + (fileCount / fileSize) * 100 + "%");
  30.                 fileCount++;
  31.             }
  32.         });
  33.         IOUtils.copyBytes(in, out, 2048, true);
  34.         
  35.         
  36.         
  37.         /********* End *********/
  38.     }
  39. }
复制代码

  
  
  第4关:HDFS-JAVA接口之删除文件

  在右侧代码区添补代码,实现如下功能:
  

  • 删除HDFS的/user/hadoop/目次(空目次);
  

  • 删除HDFS的/tmp/test/目次(非空目次);
  

  • 列出HDFS根目次下全部的文件和文件夹;
  

  • 列出HDFS下/tmp/的全部文件和文件夹。
  
  先在命令行启动hadoop
  1. start-dfs.sh
复制代码
然后在代码文件中写入:
  1. package step4;
  2. import java.io.IOException;
  3. import java.net.URI;
  4. import org.apache.hadoop.conf.Configuration;
  5. import org.apache.hadoop.fs.FileStatus;
  6. import org.apache.hadoop.fs.FileSystem;
  7. import org.apache.hadoop.fs.FileUtil;
  8. import org.apache.hadoop.fs.Path;
  9. public class FileSystemDelete {
  10.    
  11.     public static void main(String[] args) throws IOException {
  12.         //请在 Begin-End 之间添加代码,完成本关任务。
  13.         /********* Begin *********/
  14.         String root = "hdfs://localhost:9000/";
  15.         String path = "hdfs://localhost:9000/tmp";
  16.         String del1 = "hdfs://localhost:9000/user/hadoop";
  17.         String del2 = "hdfs://localhost:9000/tmp/test";
  18.         Configuration config = new Configuration();
  19.         FileSystem fs = FileSystem.get(URI.create(root),config);
  20.         fs.delete(new Path(del1),true);
  21.         fs.delete(new Path(del2),true);
  22.         Path[] paths = {new Path(root),new Path(path)};
  23.         FileStatus[] status = fs.listStatus(paths);
  24.         Path[] listPaths = FileUtil.stat2Paths(status);
  25.         for (Path path1 : listPaths){
  26.   System.out.println(path1);
  27.         }
  28.         
  29.         
  30.         /********* End *********/
  31.     }
  32. }
复制代码


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

飞不高

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表