Win10 IDEA连接假造机中的Hadoop(HDFS)

张裕  金牌会员 | 2025-3-24 14:48:52 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 671|帖子 671|积分 2013

获取假造机的ip

假造机终端输入
  1. ip a
复制代码

关闭假造机防火墙

  1. sudo ufw disable
复制代码
修改Hadoop的core-site.xml文件

将localhost修改为假造机局域网IP
  1. # 位置可能不一样,和Hadoop安装位置有关
  2. cd /usr/local/hadoop/etc/hadoop
  3. vim core-site.xml
复制代码

重启Hadoop

  1. cd /usr/local/hadoop/ #目录可能不一样,修改成自己的目录
  2. ./sbin/stop-dfs.sh # 关闭hadoop
  3. ./sbin/start-dfs.sh #启动hadoop
  4. jps # 判断是否启动成功
复制代码

IDEA 连接

创建Maven项目

IDEA自带Maven,假如需要自己安装Maven可以参考Maven安装教程
创建项目,选择Maven,模板选择第一个maven-archetype-archetype

添加依赖(pom.xml)

记得修改自己hadoop的版本,我的是3.3.5
设置好后Reload一下
  1.   <properties>
  2.     <hadoop.version>3.3.5</hadoop.version>
  3.   </properties>
  4.   <dependencies>
  5.     <dependency>
  6.       <groupId>org.apache.hadoop</groupId>
  7.       <artifactId>hadoop-common</artifactId>
  8.       <version>${hadoop.version}</version>
  9.     </dependency>
  10.     <dependency>
  11.       <groupId>org.apache.hadoop</groupId>
  12.       <artifactId>hadoop-hdfs</artifactId>
  13.       <version>${hadoop.version}</version>
  14.     </dependency>
  15.     <dependency>
  16.       <groupId>org.apache.hadoop</groupId>
  17.       <artifactId>hadoop-client</artifactId>
  18.       <version>${hadoop.version}</version>
  19.     </dependency>
  20.   </dependencies>
复制代码

设置好后Reload一下 ,然后等下载好

创建Java文件并运行

出现错误请先查抄Hadoop是否重启
  1. import org.apache.hadoop.conf.Configuration;
  2. import org.apache.hadoop.fs.*;
  3. import java.io.IOException;
  4. public class Test01 {
  5.     public static void main(String[] args) throws IOException {
  6.         Configuration conf = new Configuration();
  7.         //  设置用户名(一定要,不然默认用户名是win的用户名)
  8.         System.setProperty("HADOOP_USER_NAME","hadoop");
  9.         //         IP地址修改成虚拟机的ip
  10.         conf.set("fs.defaultFS","hdfs://192.168.111.131:9000");
  11.         conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
  12.         FileSystem fs = FileSystem.get(conf);
  13.         RemoteIterator<LocatedFileStatus> files = fs.listFiles(new Path("/"), true);
  14.         while (files.hasNext()) {
  15.             FileStatus fileStatus = files.next();
  16.             System.out.println(fileStatus.getPath().toString());
  17.         }
  18.         fs.close(); //关闭hdfs
  19.     }
  20. }
复制代码

端口转发

完成到这里已经可以用啦,不过可能不太方便
可以设置将win10的端口转发
实如今代码中直接访问localhost
创建test.bat文件后输入以下代码
将IP修改成假造机的IP
双击运行
  1. @REM 设置IP
  2. SET BigDataLANIP=192.168.111.131
  3. @REM 设置命令以管理员身份运行
  4. %1 start "" mshta vbscript:CreateObject("Shell.Application").ShellExecute("cmd.exe","/c %~s0 ::","","runas",1)(window.close)&&exit
  5. @REM  清空所有转发规则
  6. netsh interface portproxy reset
  7. @REM 转发9000
  8. netsh interface portproxy add v4tov4 listenport=9000 connectport=9000 connectaddress=%BigDataLANIP%
  9. @REM 转发9870(HDFS的web管理界面)
  10. netsh interface portproxy add v4tov4 listenport=9870 connectport=9870 connectaddress=%BigDataLANIP%
  11. echo "succeed"
  12. timeout /t 5 /nobreak >nul
复制代码

简朴利用

  1. import org.apache.hadoop.conf.Configuration;
  2. import org.apache.hadoop.fs.*;
  3. import java.io.BufferedReader;
  4. import java.io.IOException;
  5. import java.io.InputStreamReader;
  6. public class Test02 {
  7.     public static void main(String[] args) throws IOException {
  8.         Configuration conf = new Configuration();
  9. //        设置用户名(一定要,不然默认用户名是win的用户名)
  10.         System.setProperty("HADOOP_USER_NAME","hadoop");
  11.         conf.set("fs.defaultFS","hdfs://localhost:9000");
  12.         conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
  13. //        列出根目录下的所有文件和文件夹
  14.         FileSystem fs = FileSystem.get(conf);
  15.         Path file = new Path("/");
  16.         FileStatus[] fileStatuses = fs.listStatus(file);
  17.         for (FileStatus fileStatus : fileStatuses){
  18.             System.out.println(fileStatus.getPath());
  19.         }
  20. //        创建一个新的文件 test.txt 在HDFS的 /user/hadoop/test 目录下(如果目录不存在,则先创建目录)。
  21.         Path dirPath = new Path("/user/hadoop/test");
  22.         if(!fs.exists(dirPath)){
  23.             fs.mkdirs(dirPath);
  24.         }
  25.         Path remotePath = new Path("/user/hadoop/test/test.txt");
  26.         FSDataOutputStream outputStream = fs.create(remotePath);
  27.         outputStream.close();
  28. //        向 test.txt 文件中写入一段指定的文本内容(如“Hello, HDFS!”)。
  29.         FSDataOutputStream outputStream2 = fs.create(remotePath);
  30.         String s = "Hello, HDFS!";
  31.         outputStream2.write(s.getBytes());
  32.         outputStream2.close();
  33. //       读取 test.txt 文件的内容,并打印到控制台。
  34.         FSDataInputStream inputStream = fs.open(remotePath);
  35.         BufferedReader d = new BufferedReader(new InputStreamReader(inputStream));
  36.         String line = null;
  37.         while ((line = d.readLine()) != null)
  38.             System.out.println(line);
  39. //      关闭与HDFS的连接。
  40.         fs.close();
  41.     }
  42. }
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

张裕

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表