【已解决】伪分布式Hadoop服务已经开启,但是无法访问http://localhost:987 ...

打印 上一主题 下一主题

主题 871|帖子 871|积分 2613


一、问题形貌

使用如下方法启动成功hadoop服务
进入相应文件夹
  1. cd /usr/local/hadoop/
复制代码
起首停止启动所有的节点,使用下令行启动stop-all.sh脚本
  1. ./sbin/stop-all.sh
复制代码
解决方法是起首停止启动所有的节点,使用下令行启动stop-all.sh脚本:
  1. ./sbin/start-all.sh
复制代码
使用jps下令检察当前hadoop运行

貌似没问题
   其实这里就是有问题!!!后续解决方法里面说
  继承打开http://localhost:9870,检察web界面
显示无法连接到

二、解决方法和问题分析

下面两个方法是在网上搜到的,大家可以先试试


  • 1.有博主建议检察防火墙的
    输入下令发现我的Linux并没有防火墙。。。所以不大概是防火墙问题
    详见:Ubuntu - 检察、开启、关闭和永世关闭防火墙
  • 2.也有博主建议 编辑配置文件hdfs-site.xml
    1. <configuration>
    2.     <property>
    3.         <name>dfs.replication</name>
    4.         <value>1</value>
    5.     </property>
    6.     <property>
    7.         <name>dfs.namenode.name.dir</name>
    8.         <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    9.     </property>
    10.     <property>
    11.         <name>dfs.datanode.data.dir</name>
    12.         <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    13.     </property>
    14.     <property>
    15.         <name>dfs.namenode.http-address</name>
    16.         <value>0.0.0.0:9870</value>
    17.     </property>
    18. </configuration>
    复制代码
这些都有实行 但是仍没有解决
最后我重新看了一下我摆设伪分布式Hadoop的那篇博客:Hadoop安装搭建伪分布式教程(全面)吐血整理发现我前面启动节点时确实有问题!!!

   PS:其实至少需要4个进程:Namenode、DataNode、SecondaryNameNOde、JPS
  再会看我之前的谁性下令,居然连NameNode都没有!!!我们知道http://localhost:9870就是来检察主节点情况的,居然连主节点NameNode都没有,当然会连不上呀~~

那么现在的思路就变成了:如何启动主节点NameNode(其实另有别的两个进程:NodeManager和ResourceManager没有启动成功,这也和影响我们通过web界面对其资源管理器的检察等有影响,稍后我们一起说)
2.1:缺少NameNode进程

核心:初始化namenode。需要我们先执行如下下令
  1. hdfs namenode -format
复制代码
然后再启动hadoop服务(注意,再次启动前需要先停止之前启动的,否则会报错)
然后如下:

之后我们再次访问http://localhost:9870即可成功访问!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

没腿的鸟

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表