hadoop格式化失败-拒绝毗连

打印 上一主题 下一主题

主题 895|帖子 895|积分 2685

hadoop格式化失败-拒绝毗连

1.项目场景

搭建hadoop高可用集群
包罗两个namenode,该集群连合zookeeper自动故障转移功能
2.问题描述

当我们安装,设置Hadoop之后,启动zookeeper都没出现问题但是初始化出现了问题该如何解决

3.缘故原由分析

1.设置文件

设置文件(hdfs-site.xml core-site.xml yarn-site.xml mapred-site.xml hadoop-env.sh mapred-env.sh yarn-env.sh)这个需自己检查
2.journalnode没启动

[注意]:集群 搭建完成之后,由于第一次启动Hadoop,故启动之前需格式化namenode,而格式化之前需启动journalnode(3个节点分别执行)之后不需格式化和启动journalnode。
  1. hadoop-daemon.sh start journalnode
复制代码

解决方案

当我们发现Hadoop格式化失败并且是拒绝毗连时
1.制止当前所有进程

  1. stop-all.sh
复制代码

通过jps命令检察当前进程是否全部关闭

如果zookeeper进程没有制止可通过kill -9 3031将其杀死,也可通过​zkServer.sh stop将zookeeper制止

slave1,slave2同理


2.将tmp文件删除

  1. rm -rf /opt/programs/hadoop-2.7.6/tmp
复制代码

3.重新启动zookeeper

zkServer.sh start zkServer.sh status

4.重新格式化

重新启动journalnode和格式化hdfs namenode -format

当出现这条信息时,说明格式化成功

5.远程复制

进入到cd /opt/programs/hadoop-2.7.6/目录中
将master目录下tmp文件远程复制到slave1Hadoop目录下
  1. scp -r tmp/ root@slave1:/opt/programs//hadoop-2.7.6/
复制代码

6.在master节点格式化ZKFC

在master节点格式化ZKFC
  1. hdfs zkfc -formatZK
复制代码

出现该信息说明格式化成功

7.在master启动dfs和yarn

在master节点启动 start-dfs.sh和 start-yarn.sh

通过jps检察各节点进程



总结

以上就是本日要讲的内容,本文仅仅简单介绍了格式化失败-拒绝毗连的缘故原由及解决办法,本文搭建的是hadoop的高可用集群经常会碰到的问题。
Hadoop的高可用性:Hadoop的NameNode包括active和standby两种状态,通过故障转移机制(即当active NameNode意外停止时,快速启动stantby NameNode)可包管HDFS的高可用性

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

半亩花草

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表