IT评测·应用市场-qidao123.com
标题:
Win10 IDEA连接假造机中的Hadoop(HDFS)
[打印本页]
作者:
张裕
时间:
2025-3-24 14:48
标题:
Win10 IDEA连接假造机中的Hadoop(HDFS)
获取假造机的ip
假造机终端输入
ip a
复制代码
关闭假造机防火墙
sudo ufw disable
复制代码
修改Hadoop的core-site.xml文件
将localhost修改为假造机局域网IP
# 位置可能不一样,和Hadoop安装位置有关
cd /usr/local/hadoop/etc/hadoop
vim core-site.xml
复制代码
重启Hadoop
cd /usr/local/hadoop/ #目录可能不一样,修改成自己的目录
./sbin/stop-dfs.sh # 关闭hadoop
./sbin/start-dfs.sh #启动hadoop
jps # 判断是否启动成功
复制代码
IDEA 连接
创建Maven项目
IDEA自带Maven,假如需要自己安装Maven可以参考Maven安装教程
创建项目,选择Maven,模板选择第一个maven-archetype-archetype
添加依赖(pom.xml)
记得修改自己hadoop的版本,我的是3.3.5
设置好后Reload一下
<properties>
<hadoop.version>3.3.5</hadoop.version>
</properties>
<dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>${hadoop.version}</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>${hadoop.version}</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>${hadoop.version}</version>
</dependency>
</dependencies>
复制代码
设置好后Reload一下 ,然后等下载好
创建Java文件并运行
出现错误请先查抄
Hadoop
是否
重启
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import java.io.IOException;
public class Test01 {
public static void main(String[] args) throws IOException {
Configuration conf = new Configuration();
// 设置用户名(一定要,不然默认用户名是win的用户名)
System.setProperty("HADOOP_USER_NAME","hadoop");
// IP地址修改成虚拟机的ip
conf.set("fs.defaultFS","hdfs://192.168.111.131:9000");
conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
FileSystem fs = FileSystem.get(conf);
RemoteIterator<LocatedFileStatus> files = fs.listFiles(new Path("/"), true);
while (files.hasNext()) {
FileStatus fileStatus = files.next();
System.out.println(fileStatus.getPath().toString());
}
fs.close(); //关闭hdfs
}
}
复制代码
端口转发
完成到这里已经可以用啦,不过可能不太方便
可以设置将win10的端口转发
实如今代码中直接访问localhost
创建test.bat文件后输入以下代码
将IP修改成假造机的IP
双击运行
@REM 设置IP
SET BigDataLANIP=192.168.111.131
@REM 设置命令以管理员身份运行
%1 start "" mshta vbscript:CreateObject("Shell.Application").ShellExecute("cmd.exe","/c %~s0 ::","","runas",1)(window.close)&&exit
@REM 清空所有转发规则
netsh interface portproxy reset
@REM 转发9000
netsh interface portproxy add v4tov4 listenport=9000 connectport=9000 connectaddress=%BigDataLANIP%
@REM 转发9870(HDFS的web管理界面)
netsh interface portproxy add v4tov4 listenport=9870 connectport=9870 connectaddress=%BigDataLANIP%
echo "succeed"
timeout /t 5 /nobreak >nul
复制代码
简朴利用
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
public class Test02 {
public static void main(String[] args) throws IOException {
Configuration conf = new Configuration();
// 设置用户名(一定要,不然默认用户名是win的用户名)
System.setProperty("HADOOP_USER_NAME","hadoop");
conf.set("fs.defaultFS","hdfs://localhost:9000");
conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
// 列出根目录下的所有文件和文件夹
FileSystem fs = FileSystem.get(conf);
Path file = new Path("/");
FileStatus[] fileStatuses = fs.listStatus(file);
for (FileStatus fileStatus : fileStatuses){
System.out.println(fileStatus.getPath());
}
// 创建一个新的文件 test.txt 在HDFS的 /user/hadoop/test 目录下(如果目录不存在,则先创建目录)。
Path dirPath = new Path("/user/hadoop/test");
if(!fs.exists(dirPath)){
fs.mkdirs(dirPath);
}
Path remotePath = new Path("/user/hadoop/test/test.txt");
FSDataOutputStream outputStream = fs.create(remotePath);
outputStream.close();
// 向 test.txt 文件中写入一段指定的文本内容(如“Hello, HDFS!”)。
FSDataOutputStream outputStream2 = fs.create(remotePath);
String s = "Hello, HDFS!";
outputStream2.write(s.getBytes());
outputStream2.close();
// 读取 test.txt 文件的内容,并打印到控制台。
FSDataInputStream inputStream = fs.open(remotePath);
BufferedReader d = new BufferedReader(new InputStreamReader(inputStream));
String line = null;
while ((line = d.readLine()) != null)
System.out.println(line);
// 关闭与HDFS的连接。
fs.close();
}
}
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/)
Powered by Discuz! X3.4