【李老师云盘算】实验一:Hadoop伪分布式集群部署与Eclipse访问Hadoop进行 ...

打印 上一主题 下一主题

主题 911|帖子 911|积分 2733

媒介

原来计划写在一起,怎样一个实验的内容实在是太多了……
其实我的学长已经写过云盘算的实验过程而且我也得到了不少帮助,但是仍然还是要写下这一篇博客,一是把内容完全整合到这一篇博客——面向单次实验的博客;二是有许多问题是我自己碰到的;三是我的Hadoop版本不同,可以做一个更新版本的介绍,总之同学们可以自行选择。
下面实验的要求短短十条不外百字,里面多少心血,要走多少坑爬多少山?就算对着别人的履历来做也总是出很多莫名奇妙的BUG,做这个实验需要好几天也是正常不外的事变,稍安勿躁吧只能说。只管把每个地方可能碰到的问题说一下。
带★的是可能碰到的问题可以看一下,以防后续操纵出问题。
内容可能来自博主自己手搓、吸取同学的履历、网络上内容的整合等等,仅供参考,更多内容可以查看大三下速通指南专栏。
实验内容

实验1:Hadoop伪分布式集群部署与Eclipse访问Hadoop进行单词计数统计。
(1) VMWare客户端安装
(2) VMWare NAT或仅主机网络计划与设置
(3) 防火墙设置
(4) 虚拟机互联互通
(5) 虚拟机访问外网
(6) 免密安全登录
(7) Hadoop集群计划与部署
(8) Eclipse访问Hadoop
(9) Map方法二次编程
(10) Reduce方法二次编程
1. 安装虚拟机

1.1 安装与激活

虚拟机之前学Linux的时间都安装过,不再过多赘述,百度一搜有一堆比我说得要更加清晰的博客。

想要激活也很简单,网上搜到的相应版本的秘钥都是可以使用的。
1.2 ★解决使用虚拟机蓝屏(绿屏)

安装VMware最好装新版本的,旧版本可能与windows10、windows11不是很兼容导致经常蓝屏(绿屏),我刚开始做的时间使用的是VMware12,经常打开虚拟机或者拖拽文件就会死机,后续又下载的VMware16。
如果你已经开始操纵了,没有问题的,重新安装VMware不会影响你创建好了的虚拟机。
2. 安装CentOS

2.1 下载CentOS

这里直接在阿里云镜像站下载的,如果下的慢可以去找其他的镜像站,这不是关键内容不做过多的叙述了。
选择CentOS-7-X86_64-DVD-1810.iso,等待下载完成。

2.2 VMware新建虚拟机

该操纵需要重复三次(实验需要一个Master两个Slave……)
在VMware上选择文件->新建虚拟机,

然后选择自界说(高级),

然后不绝下一步,直到选择安装泉源,选择安装程序光盘映像文件(iso),欣赏选择刚才下载的CentOS的位置(iso文件)。

下一步直到命名虚拟机,虚拟机的名称可以后续修改,改不改都可以,下面的位置是安装到的虚拟机位置(不想下C盘请修改)。

之后不绝下一步就可以了,设置什么的后面可以通过编辑虚拟机进行修改。
三个虚拟机的位置最好都选在不同的文件夹中,如:

2.3 安装CentOS(包括GUI、主机名)

该操纵需要重复三次(实验需要一个Master两个Slave……)
新建虚拟机后会自动开机进入CentOS的安装程序,点进虚拟机,然后不绝回车就好了,然后等待完成。

之后会弹出安装界面,按照需求选择,继续。

之后的安装信息摘要比较紧张了,直接拖到下面前三个选项不要管,我们需要打开的有下面红框标记的三个。

起首打开软件选择,选中带GUI的服务器,如果不选的话你的CentOS是纯命令行,说实话有点麻烦……点击完成即可。

然后打开安装位置,打开以后直接完成,什么都不需要选择。

最后选择网络和主机名,根据老师的要求修改主机名(我们的要求是Master学号后两位、Slave1-学号后两位、Slave2-学号后两位)。

返回到安装界面,点击开始安装。
进入页面选择ROOT密码,设置为123456(别的也行,简单一点不要为难自己)。

然后等待安装完成即可。

2.4 ★解决已经创建虚拟机改主机名

方法一是使用指令hostnamectl set-hostname xxx,xxx是自己的主机名,但是这种方法设置的主机名是小写的。
方法二是使用指令vi /etc/hostname ,这个文件里的内容就是你的主机名,直接全删了,把自己的主机名输入进去就行了,大小写都可以,这种方法需要重启一次。
3. VMWare 网络设置

按照老师要求,主机的ip最后一个字节是学号,
从机1是学号+1,从机2是学号+2……
3.0 使用VI编辑器和VMware

该操纵需要重复三次(实验需要一个Master两个Slave……)
3.0.1 使用VI编辑器

之后会经常用到VI编辑器,因此做几个介绍:

  • 使用vi 文件路径指令打开文件
  • 敲击键盘insert键或者i键进入insert模式(编辑)
  • 敲击键盘字母o,可以插入新的一行并自动进入insert模式(编辑)
  • 在VI编辑器(以及终端)中,选中就是复制
  • 在VI编辑器(以及停止)中,鼠标中键(滚轮)是粘贴
  • 修改完成后ESC,:wq是生存退出,一定要小写,大写会出错。
3.0.2 使用VMware

登录虚拟机使用root,不要用用户。(root在未列出中,用户名root,密码123456)
如果暂时不做了,最好是使用挂起客户机而不是关闭客户机。

3.1 虚拟机IP设置

起首查看一下虚拟机子网IP,在VMware上,点击编辑->虚拟网络编辑器。

点击VMnet8,查看下面的子网IP,如下图子网IP是192.168.64.0。

再点击一下NAT设置查看一下网关IP:

启动虚拟机,使用ROOT登录(未列出的->用户名root,密码123456)。
打开终端,输入vi /etc/sysconfig/network-scripts/ifcfg-ens33,复制命令,鼠标中键粘贴到终端

需要修改的是:BOOTPROTO=static、ONBOOT=yes。
在最后添加以下内容,我们之前得到的子网IP是192.168.64.0因此我们的IPADDR前三个字节需要相同,最后一个字节根据自己的学号修改。
GATEWAY与DNS1相同,都按照前面找到的网关IP填写。
  1. IPADDR=192.168.64.60
  2. NETMASK=255.255.255.0
  3. GATEWAY=192.168.64.2
  4. DNS1=192.168.64.2
复制代码
然后ESC,:wq退出,不要少写了冒号!

3.2 验证设置乐成

终端输入指令systemctl restart network(中间粘贴)
之后通过指令ip addr来查看,只要ens33出现了inet而且是自己的设置的IP就是乐成了,如果没有,请对照3.1.1的注意事项查找错误。

用上面的方法完成Slave1和Slave2的IP设置,不再重复演示。
3.3 ★解决ens33没有乐成设置IP

起首确保已经使用了systemctl restart network指令。
然后上面的一定严酷按照给的写:字母写错、不是大写都有可能导致无法毗连网络。大概率问题出在ens33的文件设置中。
如果之前已经设置乐成而且体现,后续打开发现失效,可以参考5.3来解决。
3.4 ★解决虚拟机待机问题

我们可能需要往返切换设置这三台虚拟机,从一台换到另一台的时间可能已经进入待机模式了,需要重新输入密码进入,怪麻烦的,下面给出关闭待机的方法。

在设置中选择Power(电源),然后把空白屏幕改成从不就可以了。

4. 防火墙设置

实验文档只告诉一个防火墙设置,也不说设置什么,全是泛泛之谈!一百个字的实验文档轻飘飘的话,剩下端赖自己悟。
4.1 关闭防火墙

该操纵需要重复三次(实验需要一个Master两个Slave……)
在终端使用指令依次使用下面两个指令:

  • systemctl stop firewalld 关闭防火墙
  • systemctl disable firewalld 禁用防火墙(不再开机启动)
4.2 确认防火墙状态

在终端使用指令systemctl status firewalld查看防火墙状态,下图是已经关闭的状态:

没有关闭重启试试。
5. 虚拟机互联互通

该操纵需要重复三次(实验需要一个Master两个Slave……)
5.1 添加映射

在终端使用指令vi /etc/hosts,将主机名与IP地址的映射关系存入。
如我的IP地址与主机名的对应关系是:
  1. 192.168.64.60 Master60
  2. 192.168.64.61 Slave1-60
  3. 192.168.64.62 Slave2-60
复制代码
可以用#把前面两条解释掉,然后把自己的复制进去(鼠标中键),最后:wq生存,文档如下图所示:

5.2 互相ping验证连通性

起首确保三台虚拟机都已经完成了/etc/hosts的修改。
以Master(主机)为例,使用指令ping 192.168.64.61(IP以自己的从机IP为准),或者使用ping Slave2-60来查验是否连通(IP和主机名有映射关系了,以是ping IP和ping 主机名都可以)。

再分别从从机1和从机2去ping其他的两台机器,验证是否连通,过程是一样的只是把ip改一下,不再做演示。
5.3 ★解决IP失效(之前能联网如今不行了)

如果之前已经设置乐成而且体现,后续打开发现失效可能是网卡出现问题了。
依次使用以下指令:

  • systemctl stop NetworkManager
  • systemctl disable NetworkManager
  • systemctl restart network
然后再通过ip addr查看是否乐成(ens33体现IP)。
6. 虚拟机访问外网

该操纵需要重复三次(实验需要一个Master两个Slave……)
6.1 方法一:ping百度

在终端通过ping baidu.com验证是否乐成。
下面以主机为例:

从机也需要验证,如果哪台机器ping不通请查看3.3以及5.3的解决方法或自行百度。
6.2 方法二:通过FireFox访问百度

这种方法需要再安装CentOS的时间选择了GUI界面(参考2.3)

然后输入www.baidu.com,看是否能乐成访问,以下是乐成界面:

7. 免密安全登录

7.1 生成秘钥及分享秘钥

该操纵需要重复三次(实验需要一个Master两个Slave……)
以主机为例,在终端依次使用以下指令生成秘钥然后分享给除了自己以外的别的两台机器:

  • ssh-keygen -t rsa(然后不绝回车)
  • ssh-copy-id Slave1-60(Slave1-60修改为你的从机1的主机名或IP)
  • ssh-copy-id Slave2-60(Slave1-60修改为你的从机2的主机名或IP)
    步骤2、3需要输入yes,然后再输入密码(123456),密码不会体现(Linux特性)。

两个从机重复以上操纵。
之后在**主机(Master)**进行如下操纵(这一步从机不需要):

  • cd .ssh(目前所在路径是~)
  • touch authorized_keys
  • chmod 600 authorized_keys
  • cat id_rsa.pub >> authorized_keys
这一步是为了之后做准备的……
7.2 测试是否乐成

以从机1为例,在终端使用指令ssh Master60(改为自己主机的主机名)或者`ssh 192.168.64.610(改为自己主机的IP)。

可以发现此时不需要键入密码就可以登录。
8. Hadoop集群计划与部署

OK,这一步的难度大于前面七步的和,只管说的具体一点。
该操纵需要重复三次(实验需要一个Master两个Slave……)
8.1 下载Hadoop-3.3.1

我用的是Hadoop-3.3.1,下面的操纵只要是Hadoop-3.x应该都是适用的,但是Hadoop-2.x可能有细枝末节的地方不太相同,建议看一下PushyTao学长的博客。
建议是在自己的电脑上而不是虚拟机上下载,由于每台虚拟机都需要一份,以是直接下在自己电脑桌面上然后拖到虚拟机里就可以了。
下面给出两个镜像站地址,哪个快下哪个吧(3.3.1可能已经不能用了大概3.x就可以):

  • 清华镜像站
  • 阿里云镜像站
以阿里云镜像站为例,要下载的是hadoop-3.3.1.tar.gz。

8.2 创建目次解压Hadoop

起首mkdir /user(如今的路径是~)
然后直接复制以下指令到终端(鼠标中键粘贴)
  1. mkdir  /user/hadoop
  2. mkdir  /user/hadoop/tmp
  3. mkdir  /user/hadoop/var
  4. mkdir  /user/hadoop/dfs
  5. mkdir  /user/hadoop/dfs/name
  6. mkdir  /user/hadoop/dfs/data
复制代码
方便起见,后面的操纵用GUI进行,点击应用程序,选择文件。

点击其他位置,然后选择盘算机。

找到user文件夹点击进入,注意是user不是usr。

进入里面的hadoop目次,然后把电脑上的压缩包拖进来(下面的图是解压完成的)

然后在这个界面右键选择在终端打开。

这时间我终端的位置是这个目次:

然后输入指令tar -zxvf hadoop-3.3.1.tar.gz进行解压。
8.3 设置环境变量

在终端使用指令vi ~/.bashrc。
在最后键入i进行插入,需要修改的只有第一行HADOOP_INSTALL,把它改成自己Hadoop的位置就好了(含有bin、etc、……的目次)。
  1. export HADOOP_INSTALL=/user/hadoop/hadoop-3.3.1
  2. export PATH=$PATH:$HADOOP_INSTALL/bin
  3. export PATH=$PATH:$HADOOP_INSTALL/sbin
  4. export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
  5. export HADOOP_COMMON_HOME=$HADOOP_INSTALL
  6. export HADOOP_HDFS_HOME=$HADOOP_INSTALL
  7. export YARN_HOME=$HADOOP_INSTALL
  8. export HADOOP_HOME=$HADOOP_INSTALL
复制代码

:wq生存退出。
然后在终端输入指令source ~/.bashrc
8.4 找到JDK位置

其实这个地方是搞错了的这里用的是JRE(运行包),而不是JDK(开发包),此中开发包是包含了运行包。但是后面的操纵只需要运行即可,就是说不会影响到后续操纵。我会在下一个实验的时间进行修正,或者到这一步时同学们可以自行下载JDK
这个CentOS是自带了一个JDK确实是能用的,以是我也不别的下载了,找到这个JDK就可以了。
依次使用指令:

  • which java获得一个地址/usr/bin/java
  • ls -lrt /usr/bin/java,根据前面得到的地址修改,会获得另一个地址/etc/alternatives/java
  • ls -lrt /etc/alternatives/java,根据前面得到的地址修改,终极得到的就是jdk的位置。

比如我找到的是java-1.8.0-openjdk-1.8.0.242.b08-1.el7.x86_64,但实际上每个人可能有所差别,以自己的为准!
上面体现0.362是由于后面的操纵应该是有了一个新的版本但是为了还原,我还是说我的过程吧。
点进去这个这个目次,把里面jre的bin和lib给复制出来。

不搞出来之后会报错,JAVA_HOME需要这俩东西应该是,如果重新下jdk也差不多这么个意思。
8.5 修改主机设置文件

在做这一步之前先确保主机和两台从机都完成了以上操纵,然后在主机上完成以下操纵。
用GUI来完成吧,起首进入 /user/hadoop/hadoop-3.3.1/etc/hadoop/目次

这样的文件修改不同于VI而类似于windows体系的记事本。
复制粘贴都用鼠标就可以了。生存是ctrl+s。
8.5.1 hadoop-env.sh修改

打开hadoop-env.sh
在文件最后添加:
  1. export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.242.b08-1.el7.x86_64
  2. export HADOOP_HOME=/user/hadoop/hadoop-3.3.1
  3. export HDFS_NAMENODE_USER="root"
  4. export HDFS_DATANODE_USER="root"
  5. export HDFS_SECONDARYNAMENODE_USER="root"
  6. export YARN_RESOURCEMANAGER_USER="root"
  7. export YARN_NODEMANAGER_USER="root"
复制代码
此中JAVA_HOME和HADOOP_HOME请根据自己情况来写。
8.5.2 core-site.xml修改


打开core-site.xml
在<configuration></configuration>之间输入下面的内容:
  1.     <property>
  2.         <name>hadoop.tmp.dir</name>
  3.         <value>/user/hadoop/tmp</value>
  4.         <description>Abase for other temporary directories.</description>
  5.     </property>
  6.     <property>
  7.         <name>fs.defaultFS</name>
  8.         <value>hdfs://192.168.64.60:9000/</value>
  9.     </property>
复制代码

根据自己情况修改value标签内的内容。
8.5.3 hdfs-site.xml修改

打开hdfs-site.xml
在最后到场以下内容:
  1. <configuration>
  2. <property>
  3.       <name>yarn.resourcemanager.admin.address</name>
  4.       <value>192.168.64.60:9001</value>
  5.   </property>
  6.   <property>
  7.    <name>dfs.name.dir</name>
  8.      <value>/user/hadoop/dfs/name</value>
  9.      <description>Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.</description>
  10.   </property>
  11.   <property>
  12.      <name>dfs.data.dir</name>
  13.      <value>/user/hadoop/dfs/data</value>
  14.    <description>Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.</description>
  15.   </property>
  16.   <property>
  17.     <name>dfs.replication</name>
  18.     <value>1</value>
  19.   </property>
  20.   <property>
  21.       <name>dfs.permissions</name>
  22.       <value>false</value>
  23.       <description>need not permissions</description>
  24.   </property>
  25. </configuration>
复制代码
上面内容提供了<configuration></configuration>,把之前的删了就好了。
还是把value标签自己改了。
8.5.4 yarn-site.xml修改

打开yarn-site.xml
  1. <configuration>
  2. <!-- Site specific YARN configuration properties -->
  3. <property>
  4.         <description>The address of the applications manager interface in the RM.</description>
  5.         <name>yarn.resourcemanager.address</name>
  6.         <value>192.168.64.60:8032</value>
  7.    </property>
  8.    <property>
  9.         <description>The address of the scheduler interface.</description>
  10.         <name>yarn.resourcemanager.scheduler.address</name>
  11.         <value>192.168.64.60:8030</value>
  12.    </property>
  13.    <property>
  14.         <description>The http address of the RM web application.</description>
  15.         <name>yarn.resourcemanager.webapp.address</name>
  16.         <value>192.168.64.60:8088</value>
  17.    </property>
  18.    <property>
  19.         <name>yarn.resourcemanager.resource-tracker.address</name>
  20.         <value>192.168.64.60:8031</value>
  21.    </property>
  22.    <property>
  23.         <description>The address of the RM admin interface.</description>
  24.         <name>yarn.resourcemanager.admin.address</name>
  25.         <value>192.168.64.60:8033</value>
  26.    </property>
  27.    <property>
  28.         <name>yarn.nodemanager.aux-services</name>
  29.         <value>mapreduce_shuffle</value>
  30.    </property>
  31.    <property>
  32.         <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
  33.         <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  34.    </property>
  35.    <property>
  36.         <name>yarn.scheduler.maximum-allocation-mb</name>
  37.         <value>2048</value>
  38.         <discription>every node memery size(MB) default is 8182MB</discription>
  39.    </property>
  40.    <property>
  41.         <name>yarn.nodemanager.resource.memory-mb</name>
  42.         <value>2048</value>
  43.    </property>
  44.    <property>
  45.         <name>yarn.nodemanager.vmem-check-enabled</name>
  46.         <value>false</value>
  47.    </property>
  48. </configuration>
复制代码
修改value的IP地址。
8.5.5 mapred-site.xml修改

打开mapred-site.xml
  1. <configuration>
  2.    <property>
  3.      <name>mapred.job.tracker</name>
  4.      <value>192.168.64.60:49001</value>
  5.   </property>
  6.   <property>
  7.      <name>mapred.local.dir</name>
  8.      <value>/user/hadoop/var</value>
  9.   </property>
  10.   <property>
  11.      <name>mapreduce.framework.name</name>
  12.      <value>yarn</value>
  13.   </property>
  14. </configuration>
复制代码
修改value中的ip及位置。
8.5.6 workers修改

打开workers
  1. Slave1-60
  2. Slave2-60
复制代码
把两个从节点的主机名或者IP存进去。
最后输入hdfs如果没有ERROR就是乐成;如果失败根据提示来看什么变量设置错误了,再改包括.bashrc在内的设置文件。注意hdfs指令可以使用只能代表你的Hadoop路径和JAVA_HOME设置乐成,不代表一定能运行Hadoop,还得看设置文件是否正确。
8.6 分享主机设置文件

在/user/hadoop/hadoop-3.3.1/etc/hadoop/目次下打开终端。
之前已经设置了SSH免密登录,如今就派到用场了(固然这不是主要的),我可以直接把主机的文件分享到从机上。
直接复制以下指令到终端(鼠标中键),此中需要修改的是Slave1-60(改为自己的从机主机名或ip),后面的是存放在从机的地址(必须先在从机上完成8.1-8.4保证从机有这个目次)。
  1. scp hadoop-env.sh root@Slave1-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  2. scp core-site.xml root@Slave1-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  3. scp hdfs-site.xml root@Slave1-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  4. scp mapred-site.xml root@Slave1-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  5. scp yarn-site.xml root@Slave1-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  6. scp workers root@Slave1-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
复制代码
如果设置错误了需要修改,直接重新键入指令就可以了,会自动覆盖。
然后再传递给从机2一份:
  1. scp hadoop-env.sh root@Slave2-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  2. scp core-site.xml root@Slave2-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  3. scp hdfs-site.xml root@Slave2-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  4. scp mapred-site.xml root@Slave2-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  5. scp yarn-site.xml root@Slave2-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
  6. scp workers root@Slave2-60:/user/hadoop/hadoop-3.3.1/etc/hadoop/
复制代码
8.7 格式化Hadoop

该操纵需要重复三次(实验需要一个Master两个Slave……)
在每台虚拟机上都使用终端输入指令hdfs namenode -format。
如果失败请查看自己的设置文件是否全部修改正确!Hadoop地址、JAVA_HOME之类的请仔细对照自己的实际情况!
如果乐成,会出现以下界面:

所有的机器都完成了初始化之后进行下一步。
8.8 启动Hadoop

进入/user/hadoop/hadoop-3.3.1/sbin目次(如果自己能搞明确自己在什么目次完全可以自己掌控,以下的操纵完全可以 在~路径下./user/hadoop/hadoop-3.3.1/sbin/start-all.sh)
在sbin目次下右键进入终端,使用指令./start-all.sh启动Hadoop
8.9 验证是否完成

在终端使用输入jps,如果体现bash: jps: command not found...,就使用指令yum install -y java-1.8.0-openjdk-devel。如果仍然不乐成,看一下设置文件的IP和路径是不是与自己的匹配。
如果在主机使用jps可以看到如下历程:

而且在两个从机使用jps可以看到如下历程:

就阐明完成了任务。
8.10 欣赏器查看集群

操纵在主机上
此时通过欣赏器访问192.168.64.60:9870来查看(主机的主机名或IP:9870)。

8.11 ★解决欣赏器无法查看集群

可以实验使用192.168.64.60:50070,Hadoop2.x使用的是50070端口。
如果还不行,看看防火墙是否关闭。一定是jps都体现上述的历程该网页才会生效。
8.12 ★虚拟机拖拽文件

需要安装VMware Tools,具体怎么做不多做阐明,安装完成绩能直接传输文件了。

往虚拟机中拖文件可能会报错,点一下重试就好了。
8.13 ★解决Hadoop集群部署不乐成

一般来说就是没有datanode或者namenode之类的问题,常见于是复制别人的文件、重新装了一遍Hadoop。
有两种情况:
一种是你的设置文件有问题,IP或者自己的Hadoop路径没有写对(认真核查!一个字母错误都可能导致无法乐成!),找到错误然后重新分享(参照8.6)
别的一种情况是有旧的信息还在虚拟机上,这种情况按照以下方法来解决:
之前我们创建了下面的几个目次
  1. mkdir  /user/hadoop
  2. mkdir  /user/hadoop/tmp
  3. mkdir  /user/hadoop/var
  4. mkdir  /user/hadoop/dfs
  5. mkdir  /user/hadoop/dfs/name
  6. mkdir  /user/hadoop/dfs/data
复制代码
把三台虚拟机上/user/hadoop目次中的 tmp、var、dfs(不包括name和data)、dfs/name、dfs/data里面的内容全部扫除,也就是说保持最初的状态,这一步是为了清空之前初始化产生的一些信息数据。
再重新在三台虚拟机上格式化Hadoop(参照8.7)。
9. Eclipse访问Hadoop

9.1 下载Eclipse

在官网下载:Eclipse IDE for Java Developers,选择Linux x86_64。

这个只需要拖到主机Master上就可以了。
有了上面的履历,把这个压缩包拖到/opt目次下应该不成问题。
之后在/opt目次下打开终端,使用解压指令tar zxvf eclipse-java-2023-03-R-linux-gtk-x86_64.tar.gz,这时间会有一个eclipse文件被解压到/opt。
点击(或者指令)进入/opt/eclipse,然后在该文件下打开终端,使用指令ln -s /opt/eclipse/eclipse /usr/bin/eclipse,此时再去/usr/bin目次下将eclipse拖到桌面即可。

如今直接点击eclipse就可以使用了,打开使用的时间什么都不要改!默认的工作空间也没有必要改,直接进入。
9.2 设置eclipse

下载hadoop-eclipse-plugin-3.3.1,不需要解压放在/opt/eclipse路径下的dropins和plugins中。
打开eclipse,在菜单栏选择Window->references。

然后在左侧选择Hadoop Map/Reduce,选择Hadoop的安装路径(按照自己的来)

最后Apply and Close。
之后在菜单栏选择Window->Show View->Other。

选择MapReduce Tools->Map/Reduce Locations,点击Open

9.3 eclipse毗连Hadoop

此时,会发现右上角出现大象(如果没有点击左侧第一个摁扭,里面可以打开),点击一下,下面会出现大象和+。

点击下面的大象和+

按照上图设置一下,点击Finish,下面会出现一条信息。这个大象双击以后会报错,不影响后面的操纵,不需要剖析设置好自己的ip即可。

以及左侧项目栏会出一个DFS Locations

如果这里的Hadoop(刚才起的名字),点击可以体现文件夹,就阐明毗连乐成反之会有一段错误代码。
9.4 ★解决eclipse毗连Hadoop失败

确认每一台虚拟机都能上网,而且主机启动了start-all.sh。
不能上网请参考之前的内容。
9.5 ★解决没有Hadoop Map/Reduce选项

在9.2出现找不到这个选项的情况下,如果确定自己把hadoop-eclipse-plugin放进了文件中,而且没有解压这个文件,可以用低版本的hadoop-eclipse-plugin试一下,如hadoop-eclipse-plugin-2.xx,之类的。一般问题可以解决。
10. MapReduce模型

10.1 在Hadoop集群创建文件

直接在主机终端使用指令
  1. hadoop fs -mkdir /tmp
  2. hadoop fs -chmod -R 777 /tmp
复制代码
可以在eclipse中看到多出来的tmp目次。

如果找不到项目栏可以参考10.8解决。
10.2 创建Map/Reduce项目

新建一个项目

然后选择Map/Reduce Project,点击Next。

随便起名比如WORDCOUNT。
在src目次下直接创建一个Class类,类名是WordCount,弄个包也行无所谓。

然后把代码复制进去:
  1. package wordcount;
  2. import java.io.IOException;
  3. import java.util.StringTokenizer;
  4. import org.apache.hadoop.conf.Configuration;
  5. import org.apache.hadoop.fs.Path;
  6. import org.apache.hadoop.io.IntWritable;
  7. import org.apache.hadoop.io.Text;
  8. import org.apache.hadoop.mapreduce.Job;
  9. import org.apache.hadoop.mapreduce.Mapper;
  10. import org.apache.hadoop.mapreduce.Reducer;
  11. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  12. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  13. public class WordCount {
  14.         public static class WordCountMapper extends Mapper<Object, Text, Text, IntWritable> {
  15.                 private final static IntWritable one = new IntWritable(1);
  16.                 private Text word = new Text();
  17.                 public void map(Object key, Text value, Context context)
  18.                 throws IOException, InterruptedException {
  19.                         StringTokenizer itr = new StringTokenizer(value.toString());
  20.                         while (itr.hasMoreTokens()) {//
  21.                                 word.set(itr.nextToken());
  22.                                 context.write(word, one);
  23.                         }
  24.                 }
  25.         }
  26.         public static class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
  27.                 private IntWritable result = new IntWritable();
  28.                 public void reduce(Text key, Iterable<IntWritable> values, Context context)
  29.                 throws IOException, InterruptedException {
  30.                         int sum = 0;
  31.                         for (IntWritable val : values) {
  32.                                 sum += val.get();
  33.                         }
  34.                         result.set(sum);
  35.                         context.write(key, result);
  36.                 }
  37.         }
  38.         public static void main(String[] args) throws Exception {
  39.                 Configuration conf = new Configuration();
  40.                 if (args.length != 2) {
  41.                         System.err.println("Usage: <in> <out>");
  42.                         System.exit(2);
  43.                 }
  44.                 Job job = Job.getInstance(conf, "word count");
  45.                 job.setJarByClass(WordCount.class);
  46.                 job.setMapperClass(WordCountMapper.class);
  47.                 job.setCombinerClass(WordCountReducer.class);
  48.                 job.setReducerClass(WordCountReducer.class);
  49.                 job.setOutputKeyClass(Text.class);
  50.                 job.setOutputValueClass(IntWritable.class);
  51.                 FileInputFormat.addInputPath(job, new Path(args[0]));
  52.                 FileOutputFormat.setOutputPath(job, new Path(args[1]));
  53.                 System.exit(job.waitForCompletion(true) ? 0 : 1);
  54.         }
  55. }
复制代码
如果毗连乐成了,那么上面的代码不会有错误,如果有错误一定是没有乐成毗连Hadoop。
下面是此时的状态

10.3 运行代码

这是一个命令行输入的代码,因此我们的先设置参数。
菜单上选择Run->Run Configurations...。

然后选择程序,在Arguments中输入参数:
第一个是input01,同时在项目下创建一个input01.txt来存输入,与src同级!注意是同级不是在src里。
第二个是hdfs://192.168.64.60:9000/tmp/output_01,这个要按照自己的Master的ip来设置,输出在/tmp/output_02文件里,这个文件会自动生成,而且如果已经存在了,就不能乐成运行。

10.4 ★解决不能运行(爆红的几种情况)

如果java代码爆红,先确定主机已经启动sbin目次下的start-all.sh了,而且可以在DFS Locations下找到tmp目次。此时如果org.apache.xxx一片红色,删了这个项目重新创建一个试一下。(还不行就把所有虚拟机重开,然后start-all然后再重新创建一个项目)

如果说output文件已经存在(already exists),在命令行中换一个名字,或者删掉之前的输出文件。如果在DFS Locations中的tmp下没有文件,就右键刷新(Refresh)一下。

如果是不影响运行的警告:

可以右键src,选择New->Other->General->File。

文件名是:log4j.properties
文件内容是:
  1. log4j.rootLogger=INFO, stdout
  2. log4j.appender.stdout=org.apache.log4j.ConsoleAppender
  3. log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
  4. log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
  5. log4j.appender.logfile=org.apache.log4j.FileAppender
  6. log4j.appender.logfile.File=target/spring.log
  7. log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
  8. log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
复制代码
10.5 运行效果

我们的程序是盘算单词出现了反复。
在input01文件中写入输入的内容。

然后运行代码,右键刷新一下tmp目次

然后就会神奇的发现效果已经在目次里了。没有问题!

10.6 ★解决Map+Reduce方法二次编程

单独写出来是由于报告中最后两条是要写这两个东西,实际上就是上述代码的两个函数:
Mapper
  1. public static class WordCountMapper extends Mapper<Object, Text, Text, IntWritable> {
  2.     private final static IntWritable one = new IntWritable(1);
  3.     private Text word = new Text();
  4.     public void map(Object key, Text value, Context context)
  5.     throws IOException, InterruptedException {
  6.         StringTokenizer itr = new StringTokenizer(value.toString());
  7.         while (itr.hasMoreTokens()) {
  8.             word.set(itr.nextToken());
  9.             context.write(word, one);
  10.         }
  11.     }
  12. }
复制代码
Reducer
  1. public static class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
  2.     private IntWritable result = new IntWritable();
  3.     public void reduce(Text key, Iterable<IntWritable> values, Context context)
  4.     throws IOException, InterruptedException {
  5.         int sum = 0;
  6.         for (IntWritable val : values) {
  7.             sum += val.get();
  8.         }
  9.         result.set(sum);
  10.         context.write(key, result);
  11.     }
  12. }
复制代码
10.7 ★解决运行后有目次但没有效果文件

一般是没有把从机打开,打开从机重新启动一下eclipse基本上就能解决问题,注意重新试验的时间把之前产生的目次(文件夹)删除,不然会报错的。
10.8 ★解决找不到项目栏的问题

起首可以继续向下,新建一个项目就会体现项目栏。
如果还是找不到,可以在上面菜单栏中选择window->Show View->roject Explorer,点击一下就会体现项目栏。
10.9 ★解决在网页查看output文件

确保已经乐成运行程序,在tmp目次下生成了文件。
起首打开集群部署页面自己的ip:9870(或者50070),点击Utilities->Browse the file system。

进去就可以发现之前已经创建的tmp文件,点击打开。

然后就可以看到生成时间如下,以及乐成的记载文件,点击效果文件即可。

点击Head the file就可以查看内容。

跋文

在同学对照博客做这一次实验的过程中,也碰到一些问题,我也把新的问题息争决的方法更新到了博客里,这篇博客不断地完善也算是能解决很大一部门问题了。
我在不断出错、解决错误中大概用了四天多的时间去完成了这个实验,又用了一天的时间把实验的内容记载下来做成博客——固然还是有瑕疵的,但相比于寥寥无几的材料已经很不错了。同学对照着博客基本上用了一天时间就完成了全部的内容,这也算是达成了目的吧(省点时间做想做的事变),盼望大家也能贡献出自己的光和热。
很感谢我的同学对这篇博客提出的意见以及使用时帮我勘误,由于有了这些帮助使得这篇博客趋于完善,革命尚未乐成,同道还需努力。
————————————————————————————
2024.3.15 Hadoop3.3.1在镜像站好像消失了,以是改了一下链接

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

郭卫东

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表