ToB企服应用市场:ToB评测及商务社交产业平台

标题: 【大数据】Linux环境下分布式大数据框架安装部署流程(更新中) [打印本页]

作者: 傲渊山岳    时间: 2024-11-26 20:53
标题: 【大数据】Linux环境下分布式大数据框架安装部署流程(更新中)
Linux环境下分布式大数据框架安装部署流程(离线):
JDK、Scala→Hadoop→Spark、Flink→Kafka
一、JDK安装设置步骤

以jdk 1.8为例
1.1 准备安装包


1.2 安装与环境变量设置


二、、Scala:2.11.12安装设置步骤

在安装Scala之前,确保Linux服务器上已经安装了JDK,由于Scala是运行在JVM上的。另外,假如在解压或设置环境变量过程中遇到权限问题,可以利用sudo下令提高权限。
2.1 准备步骤


2.2 安装步骤


2.3 设置步骤


三、Hadoop:2.7.x或2.8.x安装设置步骤

3.1 准备环境

3.2 下载Hadoop安装包

访问Apache Hadoop官方网站或相干镜像网站。
找到Hadoop 2.7版本的安装包,如hadoop-2.7.x.tar.gz,并下载。
3.3 解压并安装Hadoop

利用tar下令解压Hadoop安装包,例如:
  1. tar -zxvf hadoop-2.7.x.tar.gz -C /usr/local/
复制代码
这将把Hadoop解压到/usr/local/目次下,并创建一个名为hadoop-2.7.x(x为详细的小版本号)的子目次。
重命名Hadoop目次(可选),例如:
  1.    mv /usr/local/hadoop-2.7.x /usr/local/hadoop
复制代码
3.4 设置Hadoop环境变量

利用vim或其他文本编辑器打开/etc/profile文件,例如:
  1.    vim /etc/profile
复制代码
在文件末尾添加以下内容,以设置Hadoop的环境变量:
  1.    # Hadoop environment
  2.    export HADOOP_HOME=/usr/local/hadoop
  3.    export PATH=$HADOOP_HOME/bin:$PATH
复制代码
保存并退出vim编辑器。
利用source下令刷新环境变量,例如:
  1.    source /etc/profile
复制代码
3.5 设置Hadoop相干文件

进入Hadoop的设置文件目次,例如:
  1.    cd /usr/local/hadoop/etc/hadoop/
复制代码
设置hadoop-env.sh文件,指定Java的安装路径,例如:
  1.    export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk  # 根据实际Java安装路径修改
复制代码
设置core-site.xml文件,设置Hadoop的暂时目次和文件体系名称等,例如:
  1.    <configuration>
  2.        <property>
  3.            <name>hadoop.tmp.dir</name>
  4.            <value>/tmp/hadoop-${user.name}</value>
  5.        </property>
  6.        <property>
  7.            <name>fs.defaultFS</name>
  8.            <value>hdfs://localhost:9000</value>
  9.        </property>
  10.    </configuration>
复制代码
设置hdfs-site.xml文件,设置HDFS的副本数量和数据节点等,例如:
  1.    <configuration>
  2.        <property>
  3.            <name>dfs.replication</name>
  4.            <value>1</value>
  5.        </property>
  6.        <property>
  7.            <name>dfs.namenode.name.dir</name>
  8.            <value>/tmp/hadoop/dfs/name</value>
  9.        </property>
  10.        <property>
  11.            <name>dfs.datanode.data.dir</name>
  12.            <value>/tmp/hadoop/dfs/data</value>
  13.        </property>
  14.    </configuration>
复制代码
假如需要设置MapReduce,还需设置mapred-site.xml文件(通常mapred-site.xml.template是模板文件,需要重命名并编辑),例如:
  1.    <configuration>
  2.        <property>
  3.            <name>mapred.job.tracker</name>
  4.            <value>localhost:9001</value>
  5.        </property>
  6.    </configuration>
复制代码
3.6 格式化HDFS并启动Hadoop

格式化HDFS文件体系(首次启动Hadoop前需要实行),例如:
  1.    hdfs namenode -format
复制代码
启动Hadoop的NameNode和DataNode守护进程,例如:
  1.    start-dfs.sh
复制代码
假如设置了MapReduce,还需启动JobTracker和TaskTracker守护进程(在Hadoop 2.x版本中,这些组件已被ResourceManager和NodeManager替代,但在此2.7版本中仍利用JobTracker和TaskTracker),例如:
  1.    start-mapred.sh  # 仅在配置了MapReduce时需要
复制代码
利用jps下令检查Hadoop相干进程是否启动成功。
3.7 验证Hadoop安装

访问Hadoop的Web UI界面,通常可以通过以下URL访问NameNode和ResourceManager的状态页面:
NameNode:http://localhost:50070/
ResourceManager(假如设置了YARN):http://localhost:8088/
在Hadoop的交互模式下运行简单的Hadoop程序,如WordCount示例,以验证Hadoop是否安装成功。
注意事项
在安装和设置Hadoop过程中,确保全部路径和设置信息都正确无误。
假如遇到权限问题,可以利用sudo下令提升权限。
在生产环境中,建议将Hadoop安装到非root用户下,并设置相应的权限和安全步调。
四、Spark:2.4.0安装设置步骤

五、Flink:1.13.0安装设置步骤

安装、集群设置
六、Kafka:2.2.2安装设置步骤


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4