CentOS体系下Hadoop单节点集群安装与配置具体教程(小白版) ...

打印 上一主题 下一主题

主题 808|帖子 808|积分 2424

必要用到的工具和软件包



必要用到的软件包


毗连centos


输入ip地址和用户名和您设置的暗码进行登录
如不清楚ip地址,打开centos内里的终端输入以下指令查询
  1. ifconfig
复制代码
如使用不正常,请参考我另外一条博客
https://blog.csdn.net/weixin_43549657/article/details

/143578757?spm=1001.2014.3001.5501
文件导入

先将两个文件导入体系内里
打开winscp毗连后进入根目录创建module文件夹

创建方法:右侧进入根目录后,右键点击下,找到new——directory…——新建一个文件夹(我这里取名叫module,可自己自界说名称
右侧进入module文件夹后左侧选择那两个文件

点击copy,复制进centos内

复制好后可以在右侧看到两个文件

解压jdk文件

进入体系内找到复制进去的文件
先安装jdk文件
进入体系先辈入文件地点的文件夹,找到刚刚复制进来的文件

找到文件后双击打开点击提取

点击提取解压

进入到解压的文件夹内查看文件是否存在

检查完成后,进行重定名方便后面操作(根据自己情况选择)
操作到这一步记得拍一个快照生存(常拍快照是个好习惯,预防体系后面堕落可返回操作)
进行配置环境变量

再进行配置变量前,可以备份一下要改动的文件
进行复制到其他文件夹可选做,预防为准做,做一下比较好
以下是要添加进去的变量
   (可复制,不同版本可能会有所不同)
  1. export JAVA_HOME=/opt/jdk1.8
  2.   
  3. export PATH=$PATH:$JAVA_HOME/bin
复制代码
进入winscp
找到/etc/profile
双击打开

在左上角箭头处进行添加

添加完后进行生存,生存后点击右上角关闭

之后我们使用指令刷新文件
可复制
  1. source /etc/profile
复制代码

操作到这一步记得拍一个快照生存(常拍快照是个好习惯,预防体系后面堕落可返回操作)
IP地址映射

查看当前机器主机名
首先,您必要知道当前机器的主机名。可以使用hostname

命令来查看:
  1. hostname
复制代码
会出现

在这个例子中,当前的主机名是localhost.localdomain。
修改主机名
接下来,您必要将主机名修改为所需的名称,例如hadoop

。可以使用hostname

ctl命令来设置新的主机名:
  1. hostname
  2. ctl set-hostname
  3. hadoop
复制代码
然后,再次使用hostname

命令来确认主机名已经更改:

  1. hostname
复制代码
会出现

留意,虽然主机名已经更改,但是命令行提示符中的主机名可能还没有立即更新。这通常会在您注销并重新登录后更新。
修改/etc/hosts文件以添加主机名和IP地址的映射
现在,您必要编辑/etc/hosts文件来添加新的主机名和IP地址的映射。这允许体系通过主机名来解析IP地址,反之亦然
使用vi编辑器打开/etc/hosts文件
  1. vi /etc/hosts
复制代码
在文件中添加一行,将新的主机名和IP地址关联起来:
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
  1. **这里是你的虚拟机ip** hadoop
复制代码

留意:ip地址映射是通常您电脑内里的假造机地址
确保新添加的行位于文件的末端,而且IP地址和主机名之间有空格分隔。
生存并退出vi编辑器。通常,您可以通过按Esc键,然后输入:wq并按Enter键来生存并退出。
修改/etc/sysconfig/network文件(针对某些Linux发行版)
在某些Linux发行版(如CentOS或RHEL)中,您可能还必要编辑/etc/sysconfig/network文件来设置主机名。但是,请留意,使用hostname

ctl命令通常已经足够,而且会自动更新这个文件(在某些体系上)。
如果您确实必要编辑这个文件,可以使用vi编辑器:
vi /etc/sysconfig/network
找到文件中设置主机名的部门(如果有的话),并将其更改为新的主机名。例如:
#Created by anaconda
  1. hadoop
复制代码
生存并退出vi编辑器。

  • 验证更改
    最后,您可以通过几种方式来验证更改是否成功:
使用hostname

命令查看当前主机名。
使用ping命令加上新的主机名来测试主机名解析是否成功:
  1. ping hadoop
复制代码
如果统统设置正确,您应该能够看到来自本机(127.0.0.1或本地回环接口)的响应。
使用cat命令查看/etc/hosts和/etc/sysconfig/network(如果编辑了)文件的内容,以确保更改已生存。
至此,您已经成功设置了主机名和IP地址的映射关系。这些更改对于确保网络上的其他盘算机可以通过主机名访问您的机器非常重要。
无暗码登录(更方便些)

在 Linux 体系中,配置 SSH 密钥对认证可以实现无暗码登录,从而提高安全性和操作便捷性。以下是一个具体的教程,引导你如何在 Linux 体系上完成无暗码 SSH 登录的配置。
检查并创建 .ssh 目录
打开终端,使用 ls

-al
命令查看当前目录下的所有文件和目录,包括隐藏文件
下列命令可复制
  1. ls
  2. -al
复制代码

如果 .ssh 目录不存在,则使用 mkdir 命令创建它
  1. mkdir .ssh
复制代码

使用 cd 命令进入 .ssh 目录
  1. cd .ssh
复制代码

使用 pwd
命令确认当前目录是否为 .ssh

  1. pwd
复制代码

使用 ls

命令查看 .ssh 目录下的内容,确保目录为空或仅包含必要的文件

  1. ls
复制代码
使用 ssh-keygen 命令天生 SSH 密钥对。这里选择 RSA 算法,并设置密钥的生存路径为默认(即 .ssh/id_rsa 和 .ssh/id_rsa.pub)。在天生过程中,会提示输入一些信息,但为了简化操作,可以直接按四次回车键使用默认值
  1. ssh-keygen -t rsa
复制代码
按一次回车:接受默认的密钥生存路径(.ssh/id_rsa)。
按第二次回车:不设置暗码短语(留空)。
按第三次回车:再次确认不设置暗码短语。
按第四次回车:完成密钥对的天生

使用 sudo -u root ssh-copy-id 命令将公钥(id_rsa.pub)复制到远程主机的 authorized_keys 文件中。这里假设你要配置的是本地主机的无暗码登录,因此远程主机地址为 localhost
统会提示你输入远程主机的 root 用户暗码
  1. sudo -u root ssh-copy-id -i ~/.ssh/id_rsa.pub localhost
复制代码

验证 SSH 服务是否正在运行。如果没有运行,则使用 systemctl 或 service 命令启动它
  1. systemctl start sshd
复制代码
查看 Linux 体系上 iptables 防火墙的当前配置和统计信息
iptables -L -n -v
是一个用于列出当前所有 iptables 规则及其具体统计信息的命令。-L 表示列出规则,-n 表示以数字形式表现地址和端口,而不是实验解析主机名、网络名或服务名,-v 表示具体输出,包括每个规则的匹配数据包和字节的计数
  1. iptables -L -n -v
复制代码

配置防火墙以允许 SSH 毗连
使用 iptables 命令添加一条规则,允许 TCP 协议的 22 端口(SSH 默认端口)通过防火墙。
  1. iptables -A INPUT -p tcp --dport 22 -j ACCEPT
复制代码
如果你使用的是 firewalld 防火墙,则使用 firewall-cmd 命令添加 22 端口的永久规则,并重新加载防火墙配置
  1. firewall-cmd --zone=public --add-port=22/tcp --permanent
  2. firewall-cmd --reload#分开运行复制进去
复制代码

后面展示一下看看文件夹是否有SSH(Secure Shell)认证相关文件
  1. ls
复制代码

这是无暗码配置所有的命令
  1. ls
  2. -al
  3. mkdir .ssh
  4. cd .ssh
  5. pwd
  6. ls
  7. ssh-keygen -t rsa
  8. #四次回车sudo -u root ssh-copy-id -i ~/.ssh/id_rsa.pub localhost
  9. #输入暗码iptables -L -n -v
  10. systemctl start sshd
  11. service sshd start    iptables -A INPUT -p tcp --dport 22 -j ACCEPT
  12. firewall-cmd --zone=public --add-port=22/tcp --permanentfirewall-cmd --reload#复制时别把后面的注释复制进去了
复制代码
Hadoop单节点集群安装与配置

这个操作前先检查winscp这个设置是否为UTF-8
   下面这张图设置非常重要,如果不做下面操作全部白忙活!!!
  

   在下拉窗口找到preferences…
打开
  

   在这章节操作建议每完成一步拍一个快照
  解压安装包

解压到根目录的opt文件夹下

为了方便,重定名hadoop

文件夹


操作中我重定名为hadoop

3.3

配置环境变量

文件夹在/etc/profile下
这里用winscp进行操作

可复制下列字段
  1. export HDFS_NAMENODE_USER=rootexport HDFS_DATANODE_USER=rootexport HDFS_SECONDARYNAMENODE_USER=rootexport YARN_RESOURCEMANAGER_USER=rootexport YARN_NODEMANAGER_USER=rootexport HADOOP_HOME=/opt/hadoop
  2. 3.3export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
复制代码
添加完后生存关闭
刷新一下文件使配置生效

  1. source  /etc/profile
复制代码
验证 Hadoop 版本

  1. hadoop
  2. version
复制代码
执行后查看是否出现以下图片所示

Hadoop集群配置

首先,使用以下命令进入Hadoop的配置目录
我们必要找到这个文件夹

此教程将用winscp进行操作
可根据下面截图去进行查找




进入hadoop

文件夹找到
配置hadoop

-env.sh


   hadoop

-env.sh文件
  

   双击打开
这里可以看到它的界面

  在最上面添加一行
  1. export JAVA_HOME=/opt/jdk1.8
复制代码
如下图示

操作完成关闭窗口
配置core-site.xml

留意:请确保hadoop

.tmp.dir指定的目录存在或具有写权限,Hadoop将在格式化时创建必要的子目录。
找到该文件


   可复制插入
  1. <!-- 指定HDFS中NameNode的地址 --><property><name>fs.defaultFS</name>    <value>hdfs://hadoop
  2. :9000</value></property><!-- 指定Hadoop运行时产生文件的存储目录 --><property>        <name>hadoop
  3. .tmp.dir</name><!-- data/tmp无需提前创建,格式化自动天生 -->        <value>/opt/hadoop
  4. 3.3/data/tmp</value></property>
复制代码

完成后生存退出
配置hdfs-site.xml

接下来在winscp内里寻找hdfs-site.xml

同样,在这两串字符中间插入
  1. <property>
  2.         <name>dfs.replication</name>
  3.         <value>1</value>
  4. </property>
复制代码


操作完成后生存退出
配置yarn-site.xml

接下来在winscp内里寻找yarn-site.xml这个文件

找到后双击打开
同样,在这两串字符中间插入

  1. <!-- reducer获取数据的方式 --><property>         <name>yarn.nodemanager.aux-services</name>         <value>mapreduce_shuffle</value></property><!-- 指定YARN的ResourceManager的地址 --><property>        <name>yarn.resourcemanager.hostname
  2. </name>        <value>hadoop
  3. </value></property>
复制代码

操作完成后生存退出
配置mapred-site.xml

在winscp内里寻找mapred-site.xml这个文件
   在内里有三个同名文件,留意别找错
  

找到后双击打开
同样,在这两串字符中间插入

  1. <!-- 指定MR运行在YARN上 -->
  2. <property>
  3.   <name>mapreduce.framework.name</name>
  4.   <value>yarn</value>
  5. </property>
复制代码

操作完成后生存退出
配置workers文件

在winscp内里寻找workers这个文件

找到后双击打开

   将localhost删除 添加hadoop


  1. hadoop
复制代码

操作完成后生存退出
格式化(这步非常危险,必须在操作前拍个快照)


在Hadoop分布式文件体系(HDFS)中,hdfs namenode -format
命令用于格式化HDFS的NameNode。这一操作是创建HDFS文件体系元数据的初始步骤,通常在HDFS首次部署或者完全重置HDFS时执行。然而,必要非常谨慎地使用这个命令,由于一旦执行,它将会删除NameNode上存储的所有元数据和HDFS中的所有文件数据(除非这些文件数据在其他DataNode上还有副本)
   只能执行一次,不可重复执行!!!!!!!!!
  1. hdfs namenode -format
复制代码
  操作这步前,先看看前面的每个文件是否操作好。
  


出现这个阐明格式化成功
启动服务

  1. start-dfs.sh
复制代码
启动后输入
  1. jps
复制代码
出现下图四个服务就阐明成功了

启动第二项服务
  1. 启动start-yarn.sh
复制代码
  1. jps
复制代码
出现下图六个服务阐明运行成功

进入HDFS

   http://192.168.152.130:9870/
http://192.168.152.130:8088/cluster
中间那串ip地址是您假造机的ip地址
  

   测试一下:出现这个页面时阐明所有操作都完成并成功了
  结语

经过以上具体的步骤,我们已经在CentOS体系下成功安装并配置了Hadoop单节点集群。从安装必要的JDK软件包,到配置环境变量、IP地址映射、无暗码登录,再到Hadoop的具体安装与配置,每一步都进行了具体的阐明和图解。
在操作过程中,我们强调了拍快照的重要性,以便在体系出现题目时能够快速恢复。同时,我们也提醒读者留意一些关键的命令和操作,如hdfs namenode -format
,这个命令只能执行一次,必要特殊谨慎。
现在,你已经拥有了一个可以在CentOS上运行的Hadoop单节点集群。你可以开始探索Hadoop的各种功能和特性,或者将其用于实际的数据处理和分析任务。如果你碰到任何题目或必要进一步的帮助,请随时参考Hadoop的官方文档或寻求社区的支持。
渴望本教程能够对你有所帮助,祝你在使用Hadoop的过程中取得丰硕的结果!如有任何疑问或建议,欢迎在留言交换。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

宝塔山

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表