hadoop伪分布式集群的安装(不是单机版)

打印 上一主题 下一主题

主题 542|帖子 542|积分 1626

准备工作

三台虚拟机,关闭防火墙,关闭selinux
查看防火状态 systemctl status firewalld
暂时关闭防火墙 systemctl stop firewalld
永久关闭防火墙 systemctl disable firewalld
查看 selinux状态 getenforce
暂时关闭 selinux setenforce 0
永久关闭 selinux 在/etc/selinux/config文件中将SELINUX改为disabled
 
修改主机名称

三台主机
  1. hostnamectl set-hostname master
  2. hostnamectl set-hostname slave1
  3. hostnamectl set-hostname slave2<br><br>使用bash命令刷新生效
复制代码
在/etc/hosts文件中添加ip映射
  1. IP+主机名称
复制代码
根据自己需求修改,这里给出模板

 
 
 

配置ssh免密登录

 
  1. ssh-keygten -t rsa   #生成密钥
  2. ssh-copy-id master  #分发给其他节点,分发给自己主要是为了之后群集集群不需要输入密码
  3. ssh-copy-id slave1
  4. ssh-copy-id slave2
复制代码
安装JAVA和HADOOP

解压JAVA

 
 解压HADOOP

 
 修改名称为jdk与hadoop

 
 配置环境变量

 
 
 刷新环境变量,使生效
  1. source /etc/profile
复制代码
使用javac  与hadoop verison验证是否安装成功
配置hadoop文件

core-site.xml文件
  1. [/code]
  2. fs.defaultFS
  3.     hdfs://hadoop:9000
  4. [code]
复制代码

        hadoop.tmp.dir
        /usr/local/src/hadoop-2.7.2/data/tmp
  1.  
复制代码
hdfs-site.xml
  1. [/code]
  2. dfs.replication
  3.    1
  4.    dfs.namenode.name.dir
  5.    file:/home/hadoop/hadoop-2.6.0/hdfs/name
  6.    true
  7.    dfs.datanode.data.dir
  8.    file:/home/hadoop/hadoop-2.6.0/hdfs/data
  9.    true
  10.   dfs.namenode.secondary.http-address
  11.    master:9001
  12.    dfs.webhdfs.enabled
  13.    true
  14.    dfs.permissions
  15.    false
  16. [code] 
复制代码
yarn.site.xml
  1. [/code]
  2. yarn.resourcemanager.address
  3.    master:18040
  4.    yarn.resourcemanager.scheduler.address
  5.    master:18030
  6.    yarn.resourcemanager.webapp.address
  7.    master:18088
  8.    yarn.resourcemanager.resource-tracker.address
  9.    master:18025
  10.    yarn.resourcemanager.admin.address
  11.    master:18141
  12.     yarn.nodemanager.aux-services
  13.     mapreduce_shuffle
  14.      yarn.nodemanager.auxservices.mapreduce.shuffle.class
  15.      org.apache.hadoop.mapred.ShuffleHandler
  16. [code] 
复制代码
mapred-site.xml

    mapreduce.framework.name
    yarn

在hadoop-env.sh yarn-env.sh  mapred-env.sh中配置java环境


 
 这里给出hadoop-env.sh 其他相同
配置slave

写入三台主机的主机名

 
 将配置好的hadoop分发给其他主机
  1. [root@master ~]# scp -r /usr/local/src/hadoop/ root@slave1:/usr/local/src/
  2. [root@master ~]# scp -r /usr/local/src/hadoop/ root@slave2:/usr/local/src/
复制代码
格式化namenode
  1. hdfs namenode -format
复制代码
启动dfs
  1. start-dfs.sh
复制代码
启动yarn
  1. start-yarn.sh
复制代码
使用jps查看
master节点:ResourceManager,DataNode,SecondaryNameNode,NameNode,NodeManager
slave1节点与slave2节点:NodeManager,DataNode
集群全部启动则为启动成功
进入web页面验证
namenode  web页面 = IP+50070
yarn  web页面 =IP 8088
 

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

曂沅仴駦

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表