ToB企服应用市场:ToB评测及商务社交产业平台

标题: centos7安装hadoop [打印本页]

作者: 祗疼妳一个    时间: 2024-10-29 12:54
标题: centos7安装hadoop
1.软件预备


2.安装centos7虚拟机


3.设置静态ip


  1. vim /etc/sysconfig/network-scripts/ifcfg-ens33
复制代码


  1. systemctl retsart network
复制代码

  1. su root
复制代码

  1. yum -y update
  2. yum install -y net-tools
复制代码

  1. ifconfig
复制代码


  1. systemctl stop firewalld
复制代码


  1. 主机:ping虚拟机ip
  2. ping 192.168.223.100
  3. 虚拟机:ping主机ip
  4. ping 主机ip
复制代码
4.安装JDK


  1. tar -zxvf jdk-8u391-linux-x64.tar.gz
复制代码

  1. rmp -qa | grep java
复制代码

删除自带的即可
* 设置Java情况变量
  1. vim /etc/profile
复制代码

红框内里的必要填写自己JDK所在的地址

  1. source /etc/profile
  2. java -version
复制代码

5.安装hadoop


  1. tar -zxvf hadoop-2.10.2.tar.gz
复制代码


  1. vim hadoop-env.sh
复制代码



  1. vim /etc/profile
  2. 设置完成之后革新情况变量设置source /etc/profile
复制代码


  1. <configuration>
  2.     <property>
  3.         <name>fs.defaultFS</name>
  4.         <value>hdfs://localhost:9000</value>
  5.     </property>
  6.     <!-- 指定hadoop运行时产生文件的存储路径 -->
  7.     <property>
  8.         <name>hadoop.tmp.dir</name>
  9.         <!-- 配置到hadoop目录下temp文件夹 -->
  10.         <value>file:/opt/soft/hadoop/hadoop-2.10.2/tmp</value>
  11.     </property>
  12. </configuration>
复制代码

  1. <configuration>
  2.         <property>
  3.             <name>dfs.namenode.http-address</name>
  4.             <value>192.168.223.100:9870</value>
  5.         </property>
  6.         <property>
  7.         <!--指定hdfs保存数据副本的数量,包括自己,默认为3-->
  8.         <!--伪分布式模式,此值必须为1-->
  9.            <name>dfs.replication</name>
  10.            <value>1</value>
  11.        </property>
  12.        <property>
  13.           <name>dfs.namenode.name.dir</name>
  14.           <value>file:/opt/soft/hadoop/hadoop-2.10.2/dfs/name</value>
  15.        </property>
  16.        <property>
  17.           <name>dfs.datanode.data.dir</name>
  18.           <value>file:/opt/soft/hadoop/hadoop-2.10.2/dfs/data</value>
  19.       </property>
  20. </configuration>
复制代码

  1. <configuration>
  2.     <property>
  3.     <name>mapreduce.framework.name</name>
  4.     <value>yarn</value>
  5.   </property>
  6. </configuration>
复制代码

  1. <configuration>
  2. <!-- Site specific YARN configuration properties -->
  3.   <property>
  4.         <name>yarn.nodemanager.aux-services</name>
  5.         <value>mapreduce_shuffle</value>
  6.   </property>
  7. </configuration>
复制代码

  1. 启动命令:过程中需要自己输入密码
  2. start-all.sh
  3. 查看是否启动命令:
  4. jps
复制代码

如何出现以上6个就表示单节点的hadoop启动成功。

  1. 在地址栏输入IP+端口即可访问
  2. 192.168.223.100:9870
  3. 192.168.223.100:8088
复制代码


TIP NameNode启动不成功

NameNode format每次都会新建一个新的namenodeld,而tmp/dfs/data包罗了上次format下的id,NameNode format清空了namenode下的数据,但是没有清空datanode下的数据,导致启动失败。

  1. 执行下面命令的时候。需要切换到hadoop的安装目录(包含bin的目录)。
  2. # 1.先停掉hadoop
  3. stop-all.sh
  4. # 2.将tem目录删除掉,这个目录是上面配置文件中配置的目录,所以可能所在的位置和我不一样,只要删除即可。
  5. rm -rf temp
  6. # 3.执行NameNode格式化命令
  7. ./bin/hdfs namenode -format
  8. # 4.启动hadoop
  9. start-all.sh
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4