络腮胡菲菲 发表于 2024-12-20 18:15:09

【Linux】—Hadoop运行环境搭建(完全分布式)

前言

   本文主要讲Hadoop运行环境(完全分布式)搭建。三种完全分布式客户机如下:
https://i-blog.csdnimg.cn/blog_migrate/c47c3d8bccb676ca097c8a4214a82521.png
   Hadoop运行模式有三种:当地、伪分布、完全分布模式。
运行模式说明当地模式数据存储在linux当地伪分布模式数据存储在HDFS完全分布模式数据存储在HDFS
多台服务器工作 一、模板虚拟机环境准备

   1、安装模板虚拟机,请参考链接:https://blog.csdn.net/sodaloveer/article/details/139795882
    模板虚拟机信息:


[*]IP地址:192.168.10.100
[*]主机名称:QF
[*]内存:2G
[*]硬盘:80G
    2、安装XShell远程访问机,请参考链接:https://blog.csdn.net/sodaloveer/article/details/140122338
    3、QF虚拟机设置要求如下(本文Linux体系版本以Linux version 3.10.0-957.el7.x86_64为例)
   

[*]使用 yum 安装前,先执行"ping www.baidu.com"命令测试下虚拟机联网情况。
https://i-blog.csdnimg.cn/blog_migrate/8a1cec4d9137d1f4b3aa71b69e612e7b.png
如果Linux安装的是最小系统版本,还需要安装"net-tool"工具、"vim"编辑器;如果安装的是Linux桌面标准版,可以跳过,直接执行命令安装epel-release。
   

[*]安装 net-tool 工具,执行"yum install -y net-tools "命令。
net-tool:工具包集合,包含ifconfig等命令。
https://i-blog.csdnimg.cn/blog_migrate/26ba6115761ea3e7eee912f5049d9edc.png
   

[*]安装 vim 编辑器,执行"yum install -y vim"命令。
https://i-blog.csdnimg.cn/blog_migrate/2270058c4a4a3aa250fdd696d11ec184.png
   

[*]安装 epel-release ,执行"yum install -y epel-release"命令。
https://i-blog.csdnimg.cn/blog_migrate/61215f9439b3537409fc3584d9d0abbd.png
   4、关闭防火墙,关闭防火墙开机自启


[*]执行"systemctl stop firewalld"命令。
[*]执行"systemctl disable firewalld.service"命令。
https://i-blog.csdnimg.cn/blog_migrate/b8560646b5808e4079254c3e0dc9ded3.png
   5、创建atwqf用户,并修改atwaf用户的密码


[*]执行"useradd atwqf"命令。
[*]执行"passwd w574520."命令。
    6、设置atwqf用户具有root权限,方便后期加sudo执行root权限命令。


[*]执行"vim /etc/sudoers"命令,打开文件。
修改/etc/sudoers文件,在%wheel这行下面添加一行:
atwqf ALL=(ALL) NOPASSWD:ALL
https://i-blog.csdnimg.cn/blog_migrate/342dc4a73b064101a8c4b94a627d962f.png
注意:atwqf 这一行不要直接放到root下面,因为所有用户都属于wheel组,你先设置了atwqf具有免密功能,但是步调执行到%wheel行时,该功能又被覆盖回需要密码,以是atwqf要入放到%wheel行下面。
   7、在/opt目录下面创建文件夹,并修改所属主和所属组。
    7.1. 在/opt目录下创建module、software文件夹。


[*]执行"mkdir /opt/module"命令。
[*]执行"mkdir /opt/software"命令。
    7.2. 修改module、software文件夹的所有者和所属组均为atwqf用户。


[*]执行"mkdir atwqf:atwqf /opt/module"命令。
[*]执行"mkdir atwqf:atwqf /opt/software"命令。
    7.3. 检察module、software文件夹的所有者和所属组。


[*]执行"cd /opt/"命令。
[*]执行"ll"命令。
https://i-blog.csdnimg.cn/blog_migrate/50437fc247fb43c610c0054e5d355e2a.png
   8、卸载虚拟机自带的JDK,假如你的虚拟机是最小化安装可以直接跳过这一步,不需要执行。


[*]执行"rmp -qa | grep -i java | xargs -nl rpm -e --nodes"命令。
    9、重启虚拟机


[*]执行"reboot"命令。
https://i-blog.csdnimg.cn/blog_migrate/130dc811b0f113c40085644f5cddd4b8.png
二、克隆虚拟机(以hadoop102为例)

   使用模板机QF,克隆三台虚拟机:hadoop102、hadoop103、hadoop104,下面以克隆hadoop102为例。
    1、右键"管理"->“克隆”。
https://i-blog.csdnimg.cn/blog_migrate/25981509c7d24676a6a31dec93dd62b9.png
https://i-blog.csdnimg.cn/blog_migrate/a5f51475214a067d2705d96082c31eda.png
https://i-blog.csdnimg.cn/blog_migrate/f882f3044818255611eb22429b69c580.png
   2、选择"创建完整克隆"。
https://i-blog.csdnimg.cn/blog_migrate/22adbefb71e9bbfea84b4b8260e50444.png
   3、填写克隆虚拟机的名称和存放位置。
https://i-blog.csdnimg.cn/blog_migrate/1ae2eee904deba79874f6b5c75479021.png
   4、重复上面克隆hadoop102的步调,完成hadoop103、hadoop104的克隆。
https://i-blog.csdnimg.cn/blog_migrate/d71d147e112f1c26c5d71235ac376023.png
   5、假如想要彻底删除克隆机,右键"管理"->“从磁盘中删除”。
右键"移除"只是页面上移除。右键"打开”,选择到对应的文件夹就可以规复了。(参考链接:如何把vmware中已经移除的虚拟机规复)
https://i-blog.csdnimg.cn/blog_migrate/a6bc07ff55acd71c83a179162c4b1804.png
https://i-blog.csdnimg.cn/blog_migrate/864bb4da3f5c6649ebdb71abddbf2bae.png
三、修改克隆机的IP

   1、修改克隆虚拟机的静态IP。


[*]执行"vim /etc/sysconfig/network-scripts/ifcfg-ens32"命令。
主要是将IPADDR从"192.168.40.100"改成"192.168.40.102"(以hadoop102为例),同理,在hadoop103克隆机上要改成"192.168.40.103",在hadoop104克隆机密改成"192.168.40.104"。
https://i-blog.csdnimg.cn/blog_migrate/218fbd5c2007bea61c231a038fdc78de.png
   2、修改克隆机主机名。


[*]执行"vim /etc/hostname"命令。
将"QF"改成"hadoop102"(以hadoop102为例),同理,在hadoop103克隆机上要改成"hadoop103",在hadoop104克隆机上要改成"hadoop104"。
https://i-blog.csdnimg.cn/blog_migrate/fce3f11383d99153c6cf215855c4e299.png
   3、设置Linux克隆机主机名称映射host文件,执行"vim /etc/hosts"命令打开/etc/hosts。添加下面内容:


[*]192.168.40.100 qf
[*]192.168.40.101 hadoop101
[*]192.168.40.102 hadoop102
[*]192.168.40.103 hadoop103
[*]192.168.40.104 hadoop104
https://i-blog.csdnimg.cn/blog_migrate/14bbe144a397d97f55a471c4b0ead7e2.png
   4、检察Linux虚拟机的"虚拟网络编辑器"


[*]点击"编辑"->“虚拟网络编辑器”->“VMnet8”。
https://i-blog.csdnimg.cn/blog_migrate/f1c6f132e676627d0a8f395f8da80b95.png
   

[*]点击"更改设置”进入编辑。
https://i-blog.csdnimg.cn/blog_migrate/f2c032cea18f6815e3a3f369a79cddfa.png
   

[*]点击"VMnet8",设置"子网IP",点击 “NAT 设置” 进入设置 “网关IP”。
https://i-blog.csdnimg.cn/blog_migrate/b2af2416dc52d350bf93d6e9805925ef.png
https://i-blog.csdnimg.cn/blog_migrate/415c8157ac23ab0e6b08d3619ee6d525.png
   5、检察Windows体系适配器 VMware Network Adapter VMnet8的IP地址。


[*]“设置”->“网络和Internet”->“更改适配器选项”
https://i-blog.csdnimg.cn/blog_migrate/836312aa712fdabbc959ac94ba6bdca4.png
   

[*]右键"VMware Network Adapter VMnet8"->“属性”
https://i-blog.csdnimg.cn/blog_migrate/d0706bbbad23c756a063ac968068395e.png
   

[*]"Internet 协议版本4(TPC/IPv4)"的属性
https://i-blog.csdnimg.cn/blog_migrate/574f01e5b930ab3a76f32eb80615ed68.png
   

[*]设置"默认网关"和"DNS服务器地址"。
https://i-blog.csdnimg.cn/blog_migrate/2d753f78b84103b26de38670881d487a.png
   保证Linux体系ifcfg-ens32文件中IP地址,虚拟网络编辑器地址和Windows体系VM8网络IP地址相同。
    6、重启克隆机hadoop102,执行"reboot"命令。
https://i-blog.csdnimg.cn/blog_migrate/47b047a74940515432eaf78fc9b25df0.png
   7、修改Windows的主机映射文件(hosts文件),进入"C:\Windows\System32\drivers"路径hosts,添加如下内容:(提示:操作体系是Windows10,先拷贝出来,修改保存以后,再覆盖即可。)
    192.168.40.100 qf
192.168.40.101 hadoop101
192.168.40.102 hadoop102
192.168.40.103 hadoop103
192.168.40.104 hadoop104
https://i-blog.csdnimg.cn/blog_migrate/348f58f95ce24fc750d550f823bfbd85.png
四、安装JDK

以hadoop102为例。先安装到hadoop102上,再拷贝到hadoop103、hadoop104上。
   0、jdk下载地址:https://www.oracle.com/java/technologies/javase/javase8u211-later-archive-downloads.html,下滑找恰当项目标jdk版本,只管下载.tar.gz后缀的方便安装。
    1、卸载现有jdk,在进行安装jdk前,肯定要确保提前删除了虚拟机自带的jdk。


[*]执行”rpm -qa|grep java"命令,检察旧JDK,假如有执行"sudo yum -y remove 要删除jdk的名字"。
https://i-blog.csdnimg.cn/blog_migrate/be1cdb694ce2fc3e05997441ec0549a6.png
   2、用XShell传输工具Xftp将JDK导入到/opt/software/文件夹下面。
https://i-blog.csdnimg.cn/blog_migrate/f2c581db23d454bf406a988932af3b09.png
   3、在Linux体系下的opt目录中检察软件包是否导入乐成。


[*]执行"ll"命令。
https://i-blog.csdnimg.cn/blog_migrate/ee26c6f503a4cf883442ae1e177c7530.png
   4、解压JDK到/opt/module目录下。


[*]执行"tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/"命令。
https://i-blog.csdnimg.cn/blog_migrate/1430ca46d74420c1510d342267dc5ca0.png
   5、检察是否解压乐成。
https://i-blog.csdnimg.cn/blog_migrate/e263bd528d0f5d5598f8e71791f67f75.png
   6、设置JDK环境变量。


[*]执行"vim /etc/profile.d/my_env.sh"命令新建文件,添加下面内容:
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin
[*]执行"source /etc/profile"文件,让新的环境变量PATH生效。
https://i-blog.csdnimg.cn/blog_migrate/8fa95c3c9784834727d2ffb257f7762a.png
   7、测试JDK是否安装乐成。


[*]执行"java -version"命令。
https://i-blog.csdnimg.cn/blog_migrate/318c9c1ebea8c1e04cd7605e08a9e60e.png
五、安装Hadoop(完全分布式)

以hadoop102为例,再拷贝到hadoop103、hadoop104上。
   0、hadoop-3.1.3下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/
    1、用XShell传输工具Xftp将hadoop-3.1.3.tar.gz导入到/opt/software/文件夹下面。
https://i-blog.csdnimg.cn/blog_migrate/fabf3c4ffe4eecee098dca6693df9cb3.png
   2、在Linux体系下的opt目录中检察软件包是否导入乐成。


[*]执行"ll"命令。
https://i-blog.csdnimg.cn/blog_migrate/4d696c868afbc6f038352bb18995d10f.png
   3、解压hadoop-3.1.3.tar.gz到/opt/module目录下。


[*]执行"tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/"命令。
https://i-blog.csdnimg.cn/blog_migrate/0ef9d154654b206364aa228a14021e39.png
   4、检察是否解压乐成。
https://i-blog.csdnimg.cn/blog_migrate/d35c1bb625e54d952cb95cddc1baed98.png
   5、设置Hadoop添加到环境变量。


[*]获取Hadoop安装路径"/opt/module/hadoop-3.1.3"。
[*]执行"vim /etc/profile.d/my_env.sh"命令新建文件,添加下面内容:
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
[*]执行"source /etc/profile"命令,让新的环境变量PATH生效。
https://i-blog.csdnimg.cn/blog_migrate/9ace52429a466eb1269fe30c8a910ac2.png
   6、测试是否安装乐成。


[*]执行"hadoop version"命令。
https://i-blog.csdnimg.cn/blog_migrate/943c1e0d33dcd6bf47428ae622be62ed.png
   7、检察Hadoop目录布局。


[*]执行"ll"命令。
https://i-blog.csdnimg.cn/blog_migrate/6579ad06e539e2f0dd0f3fef5d26968b.png
   重要目录说明:


[*]bin目录:存放对 Hadoop 相关服务(hdfs,yarn,mapred)进行操作的脚本
[*]etc目录:Hadoop 的设置文件目录,存放 Hadoop 的设置文件
[*]lib目录:存放 Hadoop 的当地库(对数据进行压缩解压缩功能)
[*]sbin目录:存放启动或制止 Hadoop 相关服务的脚本
[*]share目录:存放 Hadoop 的依赖 jar 包、文档、和官方案例
六、集群常用命令

   1、根据上面的安装步调,如今只有hadoop102这台客户机上安装好jdk和hadoop,因此通过scp命令将hadoop102安装乐成的jdk和hadoop拷贝到hadoop103、hadoop104服务器上。如下图:
https://i-blog.csdnimg.cn/blog_migrate/8bd877178402bba6d29a38966cd9308e.png
命令:scp
功能:安全拷贝,可以实现服务器与服务器之间的数据拷贝。
语法:
scp -r   $pdir/$fname      $user@$host:$pdir/$fname
scp -r   要拷贝的文件路径/名称   目的地用户@主机:目的地路径/名称
   在 hadoop102、hadoop103、hadoop104 都已经创建好的/opt/module、 /opt/software 两个目录,而且已经把这两个目录修改为 atwqf:atwqf。
https://i-blog.csdnimg.cn/blog_migrate/fbfd6f121291d23f07f230044ebd2aaa.png
   在hadoop102上,
执行"scp -r /opt/module/jdk1.8.0_212 atwqf@hadoop103:/opt/module"命令,将hadoop102中/opt/module/jdk1.8.0_212 目录拷贝到hadoop103 上,
执行"scp -r /opt/module/jdk1.8.0_212 atwqf@hadoop104:/opt/module"命令,将hadoop102中/opt/module/jdk1.8.0_212 目录拷贝到hadoop104 上。
https://i-blog.csdnimg.cn/blog_migrate/f65a6fddd2d84d96f4aa8645a95ce66e.png
   在hadoop102上,
执行"scp -r /opt/module/hadoop-3.1.3 atwqf@hadoop103:/opt/module"命令,将hadoop102中/opt/module/hadoop-3.1.3 目录拷贝到hadoop103 上,
执行"scp -r /opt/module/jdk1.8.0_212 atwqf@hadoop104:/opt/module"命令,将hadoop102中/opt/module/jdk1.8.0_212 目录拷贝到hadoop104 上。
https://i-blog.csdnimg.cn/blog_migrate/5b0ce92800678c20d26e2a7108ad84d9.png
   另一种方式,也可以在hadoop103上,
执行"scp -r atwqf@hadoop102:/opt/module/hadoop-3.1.3 atwqf@hadoop104:/opt/module"命令、
执行"scp -r atwqf@hadoop102:/opt/module/jdk1.8.0_212 atwqf@hadoop104:/opt/module"命令,
可以将hadoop102的jdk和hadoop拷贝到hadoop104上。
命令:rsync
功能:远程同步工具,主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
语法:
rsync -av   $pdir/$fname      $user@$host:$pdir/$fname
rsync -av   要拷贝的文件路径/名称   目的地用户@主机:目的地路径/名

rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。
   2、集群分发脚本:先在hadoop102客户机上摆设好xsync脚本,命令可以任何路径下都可以使用。执行这个命令同时分发到hadoop103、hadoop104。
命令:xsync
功能:循环复制文件到所有节点的相同目录下。
语法:xsync 要同步的文件名称
   

[*]2.1. xsync脚本。
执行"vim /home/atwqf/bin/xsync"命令,在/home/atwqf/bin目录下创建xsync文件。
#!/bin/bash
#1. 判断参数个数
if [ $# -lt 1 ]
then
echo Not Enough Arguement!
exit;
fi
#2. 遍历集群所有机器
for host in hadoop102 hadoop103 hadoop104
do
echo ==================== $host ====================
#3. 遍历所有目录,挨个发送
for file in $@
do
#4. 判断文件是否存在
if [ -e $file ]
then
#5. 获取父目录
pdir=$(cd -P $(dirname $file); pwd)
#6. 获取当前文件的名称
fname=$(basename $file)
ssh $host "mkdir -p $pdir"
rsync -av $pdir/$fname $host:$pdir
else
echo $file does not exists!
fi
done
done
   

[*]2.2. 修改脚本xsync具有执行权限。
执行"chmod +x xsync"命令。
执行"ll"命令,可以看到颜色变了。
https://i-blog.csdnimg.cn/blog_migrate/f3efcf9d9441d7e856a1197d26f2f955.png
https://i-blog.csdnimg.cn/blog_migrate/312722577a42c29fc9720a83493ad310.png
   

[*]2.3. 将bin目录下的内容分发到hadoop103、hadoop104上。
执行"xsync /home/atwqf/bin/"命令。
https://i-blog.csdnimg.cn/blog_migrate/4a782b19a2f904fbd9b6fa3e3c583a95.png
   

[*]

[*]在hadoop103上可以想看到xsync命令已经传送已往。

https://i-blog.csdnimg.cn/blog_migrate/e1afd127743b10fc33177044d25048bd.png
   

[*]

[*]在hadoop104上可以想看到xsync命令已经传送已往。

https://i-blog.csdnimg.cn/blog_migrate/7990cd2faf5269d766322d77a52e9f25.png
   

[*]2.4. 分发环境变量设置到hadoop103、hadoop104上。
执行"xsync /etc/profile.d/my_env.sh"命令(root所有者)。
   

[*]

[*]在atwqf用户下,执行"xsync /etc/profile.d/my_env.sh"命令会报错failed: Permission denied。

https://i-blog.csdnimg.cn/blog_migrate/b35d7b96801b6fb2014d72a645b90275.png
   

[*]

[*]在atwqf用户,下执行"sudo xsync /etc/profile.d/my_env.sh"命令会报错sudo: xsync: command not found。
原因:使用sudo相当于如今在root用户下,如今 xsync 命令是在/home/atwqf/bin路径下,root用户找不到这个路径,因此会报错,以是在atwqf用户下执行"sudo /home/atwqf/bin/xsync /etc/profile.d/my_env.sh"命令才可以(写清楚xsync命令存放的路径。)

https://i-blog.csdnimg.cn/blog_migrate/26b022c2da91648d15ae9b30940461b2.png
https://i-blog.csdnimg.cn/blog_migrate/50a59ad66c10214491af02e9f60fc834.png
   

[*]2.5. 在hadoop103、hadoop104上,执行"cat /etc/profile.d/my_env.sh"命令检察是否分发乐成。
https://i-blog.csdnimg.cn/blog_migrate/5ec3f730a8b48edfc957acffdc8824b3.png
   

[*]2.6. 在hadoop103、hadoop104服务器上,执行"source /etc/profile"命令,让其的环境变量生效。
https://i-blog.csdnimg.cn/blog_migrate/7d0b6ac7229b8d5543ecdade5e89b1a4.png
https://i-blog.csdnimg.cn/blog_migrate/205046aec19de574fcc3978d4da5767d.png
   3、设置ssh,无密登录。
命令:ssh
功能:无密登录别的服务器。
语法:ssh 另一台电脑的IP地址
   服务器间使用ssh免密登录的过程:
https://i-blog.csdnimg.cn/blog_migrate/702dbfa16999003b396f7b2d41925164.png
   

[*]3.1. 要实现hadoop102服务器上可以免密登录hadoop103、hadoop104。
在hadoop102上,执行"ssh-keygen -t rsa"命令,生成公钥和私钥。
https://i-blog.csdnimg.cn/blog_migrate/fac67b7543c7e8dd7b5dc3ecde5159cd.png
https://i-blog.csdnimg.cn/blog_migrate/2947c90063b72b76126bb340f668df24.png
   

[*]3.2. 将公钥拷贝到要免密登录的hadoop103、hadoop104服务器上。
在hadoop102上,执行"ssh-copy-id hadoop102"将公钥拷贝到要免密登录的本身身上。
在hadoop102上,执行"ssh-copy-id hadoop103"将公钥拷贝到要免密登录的hadoop103上。
在hadoop102上,执行"ssh-copy-id hadoop104"将公钥拷贝到要免密登录的hadoop104上。
同理,假如想在hadoop103对hadoop102/hadoop104服务器进行免密登录的话,在hadoop103服务器上执行上述语句。
   

[*]3.3. 执行完成3.2.后,在hadoop102上,可以无密登录hadoop103。
执行"ssh hadoop103"命令。
https://i-blog.csdnimg.cn/blog_migrate/a7fe7dba4b9e0f3c0e61abfacb7e735f.png
   

[*]3.4. 退出。
执行"exit"命令。
https://i-blog.csdnimg.cn/blog_migrate/3cbe3a50f907974d9a0dd22d7eb3cfc2.png
   

[*]3.5. 在/home/atwqf路径下,检察该路径下所有的文件,包罗隐蔽文件。
执行"ls -al"命令。
https://i-blog.csdnimg.cn/blog_migrate/25a323db88ee7113e5cbb59f17c7e2b1.png


[*].ssh文件夹下(~/.ssh)的文件功能解释
目录名说明known_hosts记载 ssh 访问过盘算机的公钥(public key)id_rsa生成的私钥id_rsa.pub生成的公钥authorized_keys存放授权过的无密码登录服务器公钥 https://i-blog.csdnimg.cn/blog_migrate/abd1e27d34af3a8c3972426b886ad9e6.png
   

[*]3.6. 检察曾经访问过的hadoop102的服务器。
执行"cat known_hosts"命令。
https://i-blog.csdnimg.cn/blog_migrate/2f1ce9e5e4d41316166276fd33b0c7b7.png
   

[*]3.7. 检察答应哪些服务器来免密登录我本身。
执行"cat authorized_keys"命令。
https://i-blog.csdnimg.cn/blog_migrate/c1435033f9eb2687dd4dc58ac64ef5fd.png
   设置ssh免密登录后,xsync分发脚本可以不用输密码了。
    注意: ssh设置是在atwqf用户下进行设置的,以是在root用户下是无效的,要重新根据上面流程设置。
七、设置集群

   1、集群摆设规划


[*]NameNode 、ResourceManager、SecondaryNameNode 不要安装在同一台服务器。
hadoop102hadoop103hadoop104HDFSNameNode
DataNodeDataNodeSecondaryNameNode
DataNodeYARNNodeManagerResourceManager
NodeManagerNodeManager   2、设置文件


[*] 设置文件说明:Hadoop设置文件分两类:默认设置文件和自定义设置文件,只有用户想修改某一默认设置值时,才需要修改自定义设置文件,更改相应属性值。
[*]

[*]默认设置文件:

要获取的默认文件文件存放在Hadoop的jar包中的位置hadoop-common-3.1.3.jar/core-default.xmlhadoop-hdfs-3.1.3.jar/hdfs-default.xmlhadoop-yarn-common-3.1.3.jar/yarn-default.xmlhadoop-mapreduce-client-core-3.1.3.jar/mapred-default.xml

[*]

[*]自定义设置文件:core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml 四个设置文件存放在
$HADOOP_HOME/etc/hadoop 这个路径上,用户可以根据项目需求重新进行修改设置。

   焦点设置文件:core-site.xml


[*]1、执行"cd $HADOOP_HOME/etc/hadoop"命令,来到存放焦点设置文件的。
[*]2、执行"vim core-site.xml"命令,写入以下内容:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<!-- 指定 NameNode 的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:8020</value>
</property>
<!-- 指定 hadoop 数据的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-3.1.3/data</value>
</property>
<!-- 配置 HDFS 网页登录使用的静态用户为 atwqf -->
<property>
<name>hadoop.http.staticuser.user</name>
<value>atwqf</value>
</property>
<property>
<name>hadoop.proxyuser.atwqf.hosts</name>
<value>*</value>
</property>
<property>   
<name>hadoop.proxyuser.atwqf.groups</name>
<value>*</value>
</property>
</configuration>
   HDFS 设置文件:hdfs-site.xml


[*]1、执行"cd $HADOOP_HOME/etc/hadoop"命令来到存放HDFS 设置文件的。
[*]2、执行"vim hdfs-site.xml"命令,写入以下内容:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<!-- nn web 端访问地址-->
<property>
<name>dfs.namenode.http-address</name>
<value>hadoop102:9870</value>
</property>
<!-- 2nn web 端访问地址-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop104:9868</value>
</property>
</configuration>
   YARN 设置文件:yarn-site.xml


[*]1、执行"cd $HADOOP_HOME/etc/hadoop"命令来到存放YARN 设置文件的。
[*]2、执行"vim yarn-site.xml"命令,写入以下内容:
<?xml version="1.0"?>

<configuration>
<!-- 指定 MR 走 shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定 ResourceManager 的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
<!-- 环境变量的继承 -->
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAP
RED_HOME</value>
</property>
</configuration>
   MapReduce 设置文件: mapred-site.xml


[*]1、执行"cd $HADOOP_HOME/etc/hadoop"命令来到存放MapReduce 设置文件的。
[*]2、执行"vim mapred-site.xml"命令,写入以下内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<!-- 指定 MapReduce 程序运行在 Yarn 上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.1.3</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.1.3</value>
</property>
</configuration>
   3、在hadoop102上,分发设置好的Hadoop设置文件到hadoop103、hadoop104上。


[*]执行"xsync /opt/module/hadoop-3.1.3/etc/hadoop"命令。
https://i-blog.csdnimg.cn/blog_migrate/aa44c3a018920f26a2fd476adeff9dd8.png
   

[*]在hadoop103和hadoop104上检察文件分发情况。
https://i-blog.csdnimg.cn/blog_migrate/8f4513821bfd2b2332bff0708e0e74f5.png
https://i-blog.csdnimg.cn/blog_migrate/e2c37f75b0c4570a44ef8ee6adca50d7.png
   4、设置workers


[*]4.1. 执行"vim /opt/module/hadoop-3.1.3/etc/hadoop/workers"命令,增加下面内容:
hadoop102
hadoop103
hadoop104
注意:该文件中添加的内容末端不答应有空格,文件中不答应有空行。
https://i-blog.csdnimg.cn/blog_migrate/042e61c4ab54d1fefae2c74e041548ba.png
   

[*]4.2. 在hadoop102上,分发设置好的workers设置文件到hadoop103、hadoop104上。
执行"xsync /opt/module/hadoop-3.1.3/etc"命令。
https://i-blog.csdnimg.cn/blog_migrate/7602a6bcced2a9421a1e65e73d8b822e.png
   

[*]4.3. 在hadoop103和hadoop104上检察workers设置文件分发情况。
https://i-blog.csdnimg.cn/blog_migrate/d5be65a87cf4beb46dd6fa774666db43.png
https://i-blog.csdnimg.cn/blog_migrate/2be297fe89c12947b7832335f0169ac7.png
八、群起并测试集群



[*]群起集群
   0、假如集群是第一次启动,需要在hadoop102节点初始化NameNode。


[*]执行”hdfs namenode -format"命令。
    初始化完成后,"/opt/module/hadoop-3.1.3"路径下多了logs和data。
https://i-blog.csdnimg.cn/blog_migrate/33e85bcb937645bb7f0ed1c7337b24d2.png
https://i-blog.csdnimg.cn/blog_migrate/542c4fe0d6dad190e24c572ae4c3bcfd.png
   1、在hadoop102上启动hdfs,"/opt/module/hadoop-3.1.3”路径下,执行"sbin/start-dfs.sh"命令。
https://i-blog.csdnimg.cn/blog_migrate/c3537af5a8931ba6ec1ebff778eecbb3.png
   hadoop102
https://i-blog.csdnimg.cn/blog_migrate/b9bd6e40857a4afd85ebd0dc781acba7.png
   hadoop103
https://i-blog.csdnimg.cn/blog_migrate/54ffa3c87e0fa8ab08bad5d095a0b118.png
   hadoop104
https://i-blog.csdnimg.cn/blog_migrate/2f65f3aa3cceb366ec63c561886ec5e1.png
      Web端检察HDFS的NameNode。
   

[*]1、浏览器中输入:http://hadoop102:9870
[*]2、检察HDFS上存储的数据信息
    https://i-blog.csdnimg.cn/blog_migrate/b720d83c47dcf2062b95dc487845b180.png
https://i-blog.csdnimg.cn/blog_migrate/d9ef9c4c58aa05f0b684abcf403d9546.png
https://i-blog.csdnimg.cn/blog_migrate/3cd9b6fe0e88a1484ed05c7cbedc3143.png
   2、在hadoop103上启动YARN,"/opt/module/hadoop-3.1.3”路径下执行"sbin/start-yarn.sh"命令。
https://i-blog.csdnimg.cn/blog_migrate/4b59f0bee74bb0cf0acd049b73a4498c.png
   hadoop103
https://i-blog.csdnimg.cn/blog_migrate/b1542fbf8aeb99ca6acdd4bb87a580a9.png
   hadoop102
https://i-blog.csdnimg.cn/blog_migrate/c1094921864d2e1a87ed860865f33333.png
   hadoop104
https://i-blog.csdnimg.cn/blog_migrate/5580a6c2b61d7e4ac6b7f99e84f6ea14.png
      Web端检察YARN的ResourceManager。
   

[*]1、浏览器中输入:http://hadoop103:8088
[*]2、检察YARN上存储的Job信息(有任务运行的时间才有显示)
    https://i-blog.csdnimg.cn/blog_migrate/2b3c9bccca076e6e354a43bdd1f63e31.png


[*]集群测试
   1、上传文件


[*]创建文件夹
执行"hadoop fs -mkdir /wcinput"命令,在HDFS的NameNode下新建文件夹wcinput。
https://i-blog.csdnimg.cn/blog_migrate/a77d48f2f37546c867fe4e381d696b92.png
https://i-blog.csdnimg.cn/blog_migrate/d090abb958f15840058935a8ce2e7986.png
   

[*]上传小文件
执行"hadoop fs -put wcinput/word.txt /wcinput"命令,将/opt/module/hadoop-3.1.3/wcinput/word.txt文件上传到HDFS的NameNode下新建文件夹wcinput下。
https://i-blog.csdnimg.cn/blog_migrate/e2edea901948ecc349a2993f96a0dd38.png
https://i-blog.csdnimg.cn/blog_migrate/708b457c89cdf3dfc7515c83f3855bd8.png
https://i-blog.csdnimg.cn/blog_migrate/f20bac47cfc73a77fa72d284ae683f87.png
https://i-blog.csdnimg.cn/blog_migrate/9b91abbed012999ce1b67ef24d9b1578.png
   

[*]上传大文件
执行"hadoop fs -put /opt/software/jdk-8u212-linux-x64.tar.gz /"命令。
https://i-blog.csdnimg.cn/blog_migrate/fa590a73d486d655fdb6d936c976ba7a.png
https://i-blog.csdnimg.cn/blog_migrate/24f62911c925a279a96453103e65ef62.png
https://i-blog.csdnimg.cn/blog_migrate/8bb80dbd768d11abd8b7beb46022348f.png
   2、上传文件后检察文件存放在什么位置


[*]检察 HDFS 文件存储路径
执行"/opt/module/hadoop-3.1.3/data/dfs/data/current/BP-171723331-192.168.40.102-1627085800814/current/finalized/subdir0/subdir18"命令。
https://i-blog.csdnimg.cn/blog_migrate/3fd75a877f5ab5929ba906902cc9e10a.png
   

[*]检察 HDFS 在磁盘存储文件内
执行"cat blk_1073754824"命令 。
https://i-blog.csdnimg.cn/blog_migrate/5ccf0f0fc472c6a67d5dc0b453c3f5ce.png
   3、拼接


[*]执行"cat blk_1073754825 >> tmp.tar.gz"命令。
[*]执行"cat blk_1073754826 >> tmp.tar.gz"命令。
[*]执行"tar -zxvf tmp.tar.gz"命令解压到当前路径,就是一个jdk1.8.0_212。
https://i-blog.csdnimg.cn/blog_migrate/3d2693df1ad3807405fa76f3e1eeb2d2.png
https://i-blog.csdnimg.cn/blog_migrate/b5f41270fefcc7c450ecd4706d89dabc.png
https://i-blog.csdnimg.cn/blog_migrate/744e036848bf89c6f4f0aa80129fc30d.png
https://i-blog.csdnimg.cn/blog_migrate/5db2fedd05af44682f0c0558808d8726.png
   4、hadoop具有高可用性,任何一个服务器挂了之后,还有2份副本帮忙存储。
在"http://hadoop102:9870"网页上可以看到"jdk-8u212-linux-x64.tar.gz"文件有3份副本。
https://i-blog.csdnimg.cn/blog_migrate/17d2e6a6c47a9655a094197bbf24e444.png
   hadoop102
https://i-blog.csdnimg.cn/blog_migrate/c53c3eb638f29e129f3852e7d28762f8.png
   hadoop103
https://i-blog.csdnimg.cn/blog_migrate/4dfd7d7ab379cbaeeb95df85a0502258.png
   hadoop104
https://i-blog.csdnimg.cn/blog_migrate/74d05cc1118087179b9b6a7077f811c9.png
   5、执行wordcount 步调。


[*]执行"hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /wcinput /output"命令。注意:输入、输出路径也要是集群的路径。
https://i-blog.csdnimg.cn/blog_migrate/1549a403823dda2751b939f2a83ceea4.png
   步调执行完成后,可以来到HDFS检察效果。
https://i-blog.csdnimg.cn/blog_migrate/c0ba116b012bb024e15203797a2dee0e.png
https://i-blog.csdnimg.cn/blog_migrate/81c34aeeeb3d9d80a8c9476b215cf113.png
https://i-blog.csdnimg.cn/blog_migrate/f5ed69716cac7a8be2e6da11073f40dc.png
   执行任务时可以在yarn上看到步调运行的进程。
https://i-blog.csdnimg.cn/blog_migrate/9328cbefa0b3c99442c25ab19bfa9dd7.png
https://i-blog.csdnimg.cn/blog_migrate/983082259088a2e864df4d0a833aeda2.png
   点击history,出现下面的页面,希望看到运行的汗青状态,需要设置汗青服务器。
https://i-blog.csdnimg.cn/blog_migrate/98dd54bff163fb9e9cf0057c50d6ef59.png
九、设置汗青服务器

   为了检察步调的汗青运行情况,需要设置一下汗青服务器,具体设置步调如下:
    1、设置mapred-site.xml,执行"vim mapred-site.xml"命令,打开文件添加如下设置:
<!-- 历史服务器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop102:10020</value>
</property>
<!-- 历史服务器 web 端地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop102:19888</value>
</property>
   2、分发设置到hadoop103、hadoop104上。


[*]执行"xsync $HADOOP_HOME/etc/hadoop/yarn-site.xml"命令。
https://i-blog.csdnimg.cn/blog_migrate/3dfc8c0b85efd94a44b96556de42d7c6.png
   3、先执行"jps"命令,检察yarn启动了没有,
假如没有启动的话,就先在hadoop103上,执行"sbin/start-yarn.sh"命令启动,
在hadoop102上,执行"mapred --daemon start historyserver"命令,启动汗青服务器。
https://i-blog.csdnimg.cn/blog_migrate/ef0ca565507f350b9e410c18f1b5aee0.png
https://i-blog.csdnimg.cn/blog_migrate/1f63bc47ff0cc266eea1b1dc0e8c2b2f.png
https://i-blog.csdnimg.cn/blog_migrate/18b2ab3e86bf726996c9383abf6ba0fd.png
   4、检察汗青服务器是否启动。


[*]执行"jps"命令。
https://i-blog.csdnimg.cn/blog_migrate/983f140fc02a95b41329f07d6ce42b4a.png
   5、设置完后,测试。


[*]执行"hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /wcinput /wcoutput"命令。
https://i-blog.csdnimg.cn/blog_migrate/99909a21a7de3054b7d2eb61b3ac82ce.png
https://i-blog.csdnimg.cn/blog_migrate/d65207492010c07d363ba33909e30e3d.png
点击history,出现下面的页面:
https://i-blog.csdnimg.cn/blog_migrate/20b73cddaaa98cf1e5c676c04704c20c.png
   点击logs,出现下面的页面,希望检察具体的日志信息,方便出现bug时间可以定位到具体错误,因此需要设置日志的聚集显示。
https://i-blog.csdnimg.cn/blog_migrate/ade3c48042f8fb99dffcc32b21b35705.png
十、设置日志的聚集

   为了检察步调的运行日志,需要设置一下日志聚集,具体设置步调如下:
    1、设置yarn-site.xml,执行"vim yarn-site.xml"命令打开文件到场如下设置:
<!-- 开启日志聚集功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 设置日志聚集服务器地址 -->
<property>
<name>yarn.log.server.url</name>
<value>http://hadoop102:19888/jobhistory/logs</value>
</property>
<!-- 设置日志保留时间为 7 天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
https://i-blog.csdnimg.cn/blog_migrate/372c52ef683a3139549e17ba68b6e20c.png
   2、分发设置到hadoop103、hadoop104。


[*]执行"xsync $HADOOP_HOME/etc/hadoop/yarn-site.xml"命令。
https://i-blog.csdnimg.cn/blog_migrate/d208abd6187d272719b17b69401cd49d.png
   3、因为更改了yarn设置,以是需要关闭重启。


[*]在hadoop102上,执行"mapred --daemon stop historyserver"命令关闭HistoryServer。
https://i-blog.csdnimg.cn/blog_migrate/e79093c3eaa401452a540b301d5ecf9a.png
   

[*]在hadoop103上,执行"sbin/stop-yarn.sh"命令,关闭 NodeManager、ResourceManager。
https://i-blog.csdnimg.cn/blog_migrate/8e8a4c0691b3ea6e20008f788237dafc.png
   

[*]在hadoop103上,执行"sbin/start-yarn.sh"命令,启动 NodeManager、ResourceManager。
https://i-blog.csdnimg.cn/blog_migrate/af9bfa01fd8632b670ab95242f72f2a5.png
   

[*]在hadoop102上,执行"mapred --daemon start historyserver"命令开启HistoryServer。
https://i-blog.csdnimg.cn/blog_migrate/6d1d2d30d237fd4a82481e873adac3d1.png
   4、设置完后,测试。


[*]在$HADOOP_HOME路径下,执行"hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /wcinput /wcoutput1"。
https://i-blog.csdnimg.cn/blog_migrate/e42a4868ebe58083023555a97d31aedf.png
https://i-blog.csdnimg.cn/blog_migrate/1e3b521da143267d211626f189e0ab42.png
https://i-blog.csdnimg.cn/blog_migrate/e6ce7bd019c0b1f83c7b045c38e03c8b.png
十一、集群启动/制止方式总结



[*]方法一:各个模块分开启动/制止(前提是设置ssh)
   1、在hadoop102的$HADOOP_HOME路径下,执行 “sbin/start-dfs.sh” / “sbin/stop-dfs.sh” 命令,整体启动/制止HDFS。
2、在hadoop103的$HADOOP_HOME路径下,执行 “sbin/start-yarn.sh” / “sbin/stop-yarn.sh” 命令,整体启动/制止YARN。
https://i-blog.csdnimg.cn/blog_migrate/06d332a4e45c5a75d92c1fd3318d7c4b.png
https://i-blog.csdnimg.cn/blog_migrate/5ef5f778549d2479e909f20af5df7842.png
https://i-blog.csdnimg.cn/blog_migrate/8b9bc5db7f503303ab6c3a2c9e53569e.png
https://i-blog.csdnimg.cn/blog_migrate/908358de7bf102a611937fff53e677e7.png


[*]方法二:各个服务组件逐一启动/制止
   1、在hadoop102的$HADOOP_HOME路径下,执行"bin/hdfs --daemon start/stop namenode/datanode/secondarynamenode"命令,分别启动/制止HDFS组件。
2、在hadoop103的$HADOOP_HOME路径下,执行"bin/yarn --daemon start/stop resourcemanager/nodemanager"命令,启动/制止YARN。
https://i-blog.csdnimg.cn/blog_migrate/58ef177d6182eaa280716c0578848a94.png
https://i-blog.csdnimg.cn/blog_migrate/d2c1a6bdd3070b8585a952dfe1b56a1e.png
注意: 根据每个集群摆设规划在对应的服务器执行启动或者制止命令。


[*]方法三:Hadoop集群启停脚本(包含HDFS,Yarn,Historyserver):myhadoop.sh
   1、执行"cd /home/atwqf/bin"命令。
2、执行"vim myhadoop.sh"命令,写入如下内容:
#!/bin/bash
if [ $# -lt 1 ]
then
echo "No Args Input..."
exit ;
fi
case $1 in
"start")
echo " =================== 启动 hadoop 集群 ==================="
echo " --------------- 启动 hdfs ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh"
echo " --------------- 启动 yarn ---------------"
ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh"
echo " --------------- 启动 historyserver ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start
historyserver"
;;
"stop")
echo " =================== 关闭 hadoop 集群 ==================="
echo " --------------- 关闭 historyserver ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop
historyserver"
echo " --------------- 关闭 yarn ---------------"
ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh"
echo " --------------- 关闭 hdfs ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh"
;;
*)
echo "Input Args Error..."
;;
esac
   3、保存退却出,然后执行"chmod +x myhadoop.sh"命令,赋予脚本执行权限。
https://i-blog.csdnimg.cn/blog_migrate/25baad447ca7c7c388a064249d6642b0.png
   4、分发脚本到hadoop103、hadoop104服务器上,保证自定义脚本在三台服务器上都可以使用。


[*]执行"xsync /home/atwqf/bin/myhadoop.sh"命令。
https://i-blog.csdnimg.cn/blog_migrate/3ca22c5eb07476e9dca36619dace0d25.png
   hadoop103
https://i-blog.csdnimg.cn/blog_migrate/b567c749fbc9d982a0d0bfcb4eb94f30.png
   hadoop104
https://i-blog.csdnimg.cn/blog_migrate/d5244fa326f38d60dda7d67c3481f727.png
   5、设置完后,测试。


[*]执行"myhadoop.sh start"命令启动hadoop集群。
[*]执行"myhadoop.sh stop"命令制止hadoop集群。
https://i-blog.csdnimg.cn/blog_migrate/6d651aae5ffe20e577bf5d955a427e74.png
https://i-blog.csdnimg.cn/blog_migrate/e1e8ed130b91e09ec727e64f7c7eb900.png
https://i-blog.csdnimg.cn/blog_migrate/f12dac6837596124bc7f65b1324010c9.png
https://i-blog.csdnimg.cn/blog_migrate/e27f58226e8804db1210f382434f84f6.png
十二、其他常用脚本



[*]检察三台服务器Java进程脚本
   1、执行"cd /home/atwqf/bin"命令。
2、执行"vim jpsall"命令,写入如下内容:
#!/bin/bash
for host in hadoop102 hadoop103 hadoop104
do
echo =============== $host ===============
ssh $host jps
done
   3、 保存退却出,然后执行"chmod +x jpsall"命令,赋予脚本执行权限。
https://i-blog.csdnimg.cn/blog_migrate/0c091d5f0e9be320c28c7a9358b2633a.png
   4、分发脚本到hadoop103、hadoop104服务器上,保证自定义脚本在三台服务器上都可以使用。


[*]执行"xsync /home/atwqf/bin"命令。
https://i-blog.csdnimg.cn/blog_migrate/aa6c59eda8ca0d0bb81f41a5c3091210.png
   hadoop103
https://i-blog.csdnimg.cn/blog_migrate/8a3d6005f1e64c9ccb91c06bb7408d54.png
   hadoop104
https://i-blog.csdnimg.cn/blog_migrate/2f55e69640c36a175e6abab5bfafc6a3.png
   5、设置完后,测试。


[*]执行"jpsall"命令,可以检察到所有服务器的jps进程。
十三、集群时间同步

   集群时间同步:找一个呆板,作为时间服务器,所有的呆板与这台集群时间进行定时的同步。以hadoop102为时间服务器,hadoop103、hadoop104跟它对齐。


[*]集群时间同步设置
   1、在hadoop102上,检察所有节点ntpd服务状态和开机自启动状态。


[*]执行"sudo systemctl status ntpd"命令。
[*]执行"sudo systemctl start ntpd"命令。
[*]执行"sudo systemctl is-enabled ntpd"命令。
https://i-blog.csdnimg.cn/blog_migrate/1835c18192b6e2a5a865b23270e71494.png
   2、在hadoop102上,执行" sudo vim /etc/ntp.conf " 命令打开hadoop102的ntp.conf的设置文件,根据下面三点进行修改。


[*]授权 192.168.10.0-192.168.10.255 网段上的所有呆板可以从这台呆板上查询和同步时间,
将#restrict 192.168.10.0 mask 255.255.255.0 nomodify notrap
修改为
restrict 192.168.10.0 mask 255.255.255.0 nomodify notrap
[*]集群在局域网中,不使用其他互联网上的时间

server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst
修改为
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
[*]添加,当该节点丢失网络连接,依然可以接纳当地时间作为时间服务器为集群中的其他节点提供时间同步。添加内容如下:
server 127.127.1.0
fudge 127.127.1.0 stratum 10
https://i-blog.csdnimg.cn/blog_migrate/072bebde99e6d43326a966f8d0f661f1.png
https://i-blog.csdnimg.cn/blog_migrate/8c98546c5f837a57d089e4ee18eb0599.png
   4、在hadoop102 的/etc/sysconfig/ntpd 文件添加"SYNC_HWCLOCK=yes",让硬件时间与体系时间一起同步。


[*]执行"sudo vim /etc/sysconfig/ntpd"“命令,添加"SYNC_HWCLOCK=yes”。
https://i-blog.csdnimg.cn/blog_migrate/969dc5d8651115a8ae0b4d1a898c5f27.png
   5、重新启动 ntpd 服务


[*]执行"sudo systemctl start ntpd"命令。
https://i-blog.csdnimg.cn/blog_migrate/7d3345b642801b933253c9f1cb2f354a.png
   6、设置 ntpd 服务开机启动


[*]执行"sudo systemctl enable ntpd"命令。
https://i-blog.csdnimg.cn/blog_migrate/9610a119dd910f85888a773f497823e4.png
   7、其他呆板设置(hadoop103、hadoop104)


[*]关闭所有节点上 ntp 服务和自启动
执行"sudo systemctl stop ntpd"命令。
执行"sudo systemctl disable ntpd"命令。
    hadoop103
https://i-blog.csdnimg.cn/blog_migrate/adf1a312241ba1626385af6a1038e48a.png
   hadoop104
https://i-blog.csdnimg.cn/blog_migrate/0481fcfb65e05c8e279c5fb67efaf6fc.png
   

[*]在其他呆板(hadoop103、hadoop104)设置 1 分钟与时间服务器同步一次。
执行"sudo crontab -e"命令。
编写定时任务如下:
*/1 * * * * /usr/sbin/ntpdate hadoop102
    hadoop103、hadoop104上
https://i-blog.csdnimg.cn/blog_migrate/42bb3330e0f6e35bcbc3ccc28c03efec.png
   

[*]修改任意呆板时间
执行" sudo date -s “2024-07-01 11:11:11” "命令。
   

[*]1 分钟后检察呆板是否与时间服务器同步
执行" sudo date "命令。
    生产环境:假如服务器能连接外网,不需要时间同步,浪费集群性能;假如服务器连接不了外网,需要时间同步。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 【Linux】—Hadoop运行环境搭建(完全分布式)