主要内容:
了解Hadoop与大数据的关系,明白HDFS、Mapreduce、Yarn的架构、调用Hadoop执行数据分析的方法、搭建分布式Hadoop执行;
一、大数据概述
配景先容:
随著计算机技术的发展,互联网的普及,信息的积累已经到了一个非常巨大的田地,信息的增长也在不断的加快,随着互联网、物联网建立的加快,信息更是爆炸式增长,收集、检索、统计这些信息越发困难,必须使用新的技术来解决这些问题;大数据指无法在一定时间范围内,用常规软件工具举行捕捉、管理和处理的数据聚集,需要新处理模式才能具有更强的决议力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产;是指从各种各样类型的数据中,快速得到有代价的信息;
大数据(Big Data)是指在传统数据处理软件无法处理的规模、速率和复杂性下生成和收集的数据聚集。大数据技术涉及从这些大规模数据会合提取有代价的信息和洞察力。
大数据的五个主要特性,通常被称为“5V”:(中级体系项目管理工程师)
- Volume(容量):大数据的容量非常大,通常以TB、PB乃至EB为单位。数据来源广泛,包括交际媒体、传感器、交易记载等。
- Velocity(速率):大数据的生成和处理速率非常快,需要实时或近实时处理。数据流可以是连续的,需要快速分析和相应。
- Variety(多样性):大数据的类型多样,包括布局化数据(如数据库中的表格数据)、半布局化数据(如JSON、XML)和非布局化数据(如文本、图像、音频、视频)。数据来源多样,包括交际媒体、传感器、日记文件等。
- Veracity(真实性):大数据的真实性和质量是一个重要问题,因为数据大概包罗噪声、错误或不完整的信息。数据洗濯和预处理是确保数据质量的关键步骤。
- Value(代价)
大数据技术在各个行业和范畴都有广泛的应用,包括但不限于:贸易智能、金融、医疗、零售、交际媒体
大数据技术栈:
用于数据的收集、存储、处理和分析
数据收集:
- 数据收集工具和技术用于从各种来源收集数据,如传感器、交际媒体、日记文件等。
- 常见的工具包括Flume、Scribe、Kafka等。
数据存储:
- 大数据存储技术用于存储大规模数据,通常采用分布式存储体系。
- 常见的存储体系包括Hadoop HDFS、Amazon S3、Google Cloud Storage等。
数据处理:
- 大数据处理技术用于处理和分析大规模数据,通常采用分布式计算框架。
- 常见的处理框架包括Hadoop MapReduce、Spark、Flink等。
数据分析:
- 大数据分析技术用于从数据中提取有代价的信息和洞察力。
- 常见的分析工具包括Hive、Pig、Impala、Presto等。
数据可视化:
- 数据可视化工具用于将分析效果以图形化的方式展示,帮助用户明白息争释数据。
- 常见的可视化工具包括Tableau、Power BI、D3.js等。
1、Hadoop生态体系先容
Hadoop是一个开源的分布式计算框架,最初由Apache基金会开发,用于处理大规模数据集。Hadoop生态体系是一个由多个组件和工具组成的聚集,这些组件和工具协同工作,提供了一个完整的大数据处明白决方案。
Hadoop生态体系的优势:
- 高可扩展性:支持水平扩展,可通过增长节点来扩展集群的存储和计算能力
- 高容错性:HDFS和MapReduce设计了高容错机制,确保数据和计算任务的可靠性
- 多样化的数据处理能力:提供多种数据处理工具和框架,支持批处理、实时处理、数据仓库等
- 开源和社区支持:拥有巨大的社区支持,提供了丰富的文档、教程和第三方工具
起源:2003年开始Google发表3篇论文:GFS、MapReduce、BigTable(焦点组件)
- ① GFS是一个可扩展的分布式文件体系,用于大型的、分布式的、对大量数据举行访问的应用,可以运行于廉价的普通硬件上,提供容错功能。
- ② MapReduce是针对分布并行计算的一套编程模子,由Map和Reduce组成,Map是映射,把指令分发到多个worker上,Reduce是规约,把worker计算出的效果合并。
- ③ BigTable是存储布局化数据的数据库,创建在GFS、Scheduler、Lock Service和MapReduce之上。
2、Hadoop生态体系组件先容
1)Hadoop焦点组件
① Hadoop Distributed File System (HDFS)
- - 功能:HDFS是Hadoop的分布式文件体系,用于存储大规模数据集。
- 特点:高容错性、高吞吐量、适合大规模数据存储。
- 工作原理:数据被分成块并存储在多个节点上,每个块有多个副本以确保数据可靠性。
② MapReduce
- - 功能:MapReduce是Hadoop的编程模子,用于处理和生成大规模数据集。
- 特点:分布式计算、适合批处理任务。
- 工作原理:数据处理任务被分成Map和Reduce两个阶段,Map阶段将数据映射成键值对,Reduce阶段对这些键值对举行汇总和处理。
HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起
2)Hadoop生态体系组件
① YARN (Yet Another Resource Negotiator)
- 功能:YARN是Hadoop的资源管理器,用于管理和调度集群资源。
- 特点:支持多种计算框架,如MapReduce、Spark等。
- 工作原理:YARN将资源管理和作业调度分离,提高了集群的资源利用率和灵活性。
② HBase
- 功能:HBase是一个分布式、面向列的NoSQL数据库,构建在HDFS之上。
- 特点:高可扩展性、高吞吐量、适合实时读写操作。
- 应用场景:实时数据存储和查询,如日记分析、实时监控等。
③ Hive
- 功能:Hive是一个数据仓库工具,用于查询和管理大规模数据集。
- 特点:支持SQL查询、适合批处理任务。
- 工作原理:Hive将SQL查询转换为MapReduce任务执行。
④ Pig
- 功能:Pig是一个高级数据流语言和执行框架,用于处理大规模数据集。
- 特点:支持脚本语言Pig Latin、适合ETL(Extract, Transform, Load)任务。
- 工作原理:Pig将Pig Latin脚本转换为MapReduce任务执行。
⑤ Sqoop
- 功能:Sqoop是一个用于在Hadoop和关系型数据库之间传输数据的工具。
- 特点:支持批量数据导入导出、适合数据集成任务。
- 工作原理:Sqoop将数据从关系型数据库导入HDFS或从HDFS导出到关系型数据库。
⑥ Flume
- 功能:Flume是一个分布式、可靠的日记收集体系。
- 特点:高吞吐量、高可靠性、适合日记数据收集。
- 工作原理:Flume将日记数据从多个源收集并传输到HDFS或其他存储体系。
⑦ Oozie
- 功能:Oozie是一个工作流调度体系,用于管理和调度Hadoop作业。
- 特点:支持复杂工作流、适合批处理任务。
- 工作原理:Oozie界说和执行工作流,确保作业按顺序和依靠关系执行。
⑧ Zookeeper
- 功能:Zookeeper是一个分布式协调服务,用于管理和协调分布式体系。
- 特点:高可用性、高可靠性、适合分布式体系管理。
- 工作原理:Zookeeper提供分布式锁、配置管理、定名服务等功能。
HDFS(Hadoop分布式文件体系)
- HDFS是Hadoop体系中数据存储管理的基础,它是一个高度容错的体系,能检测和应对硬件故障,用于在低成本的通用硬件上运行。HDFS简化了文件的一致性模子,通过流式数据访问,提供高吞吐量应用程序数据访问功能,适合带有大型数据集的应用程序。
- HDFS采用master/slave架构,一个HDFS集群是由一个Namenode (Master)和一定命目的Datanodes (Slave)组成。
HDFS脚色及架构图:
- Client:切分文件;访问HDFS;与NameNode交互,获取文件位置信息;与DataNode交互,读取和写入数据。切分块文件,每块缺省大小128MB,可以多个副本;
- NameNode:Master节点,在hadoop1.X中只有一个,管理HDFS的名称空间Namespace和数据块映射信息(fsimage),配置副本策略,处理客户端哀求。
- DataNode:Slave节点,存储实际的数据,陈诉存储信息给NameNode。
- SecondaryNameNode:辅助NameNode,分担其工作量;定期合并fsimage和fsedits,推送给NameNode;紧急情况下,可辅助恢复NameNode,但Secondary NameNode并非NameNode的热备。(fsimage名称空间和数据库的映射信息;fsedits数据变更日记)
Mapreduce(分布式离线计算框架)
- MapReduce是一种计算模子,用以举行大数据量的计算。其中Map对数据集上的独立元素举行指定的操作(映射),生成键-值对形式中间效果。Reduce则对中间效果中相同“键”的全部“值”举行规约,以得到最终效果。MapReduce这样的功能划分,非常适合在大量计算机组成的分布式并行环境里举行数据处理
Mapreduce脚色及架构图:
- JobTracker:Master节点,只有一个,管理全部作业及作业/任务的监控、错误处理等;将任务分解成一系列任务,并分派给TaskTracker。
- TaskTracker:Slave节点,运行Map Task和Reduce Task;并与JobTracker交互,陈诉任务状态。
- Map Task:解析每条数据记载,通报给用户编写的map()并执行,将输出效果写入当地磁盘(如果为map-only作业,直接写入HDFS)
- Reducer Task:从Map Task的执行效果中,远程读取输入数据,对数据举行排序,将数据按照分组通报给用户编写的reduce函数执行。
YARN(集群资源管理体系)
- YARN是Hadoop的资源管理器,它是一个通用资源管理体系和调度平台,可为上层应用提供同一的资源管理和调度,它的引入为集群在利用率、资源同一管理和数据共享等方面带来了巨大好处。
YARN架构图:
- ResourceManager(RM):是一个全局的资源管理器,负责处理客户端哀求和整个体系的资源管理和调度分配。启动/监控AM,监控NM,它主要由两个组件构成:调度器(Scheduler)和应用程序管理器(ApplicationsManager,AM)
- a) Scheduler:负责分配最少但满足ApplicationManager运行所需的资源量给ApplicationManager。Scheduler只是基于资源的使用情况举行调度,并不负责监督/跟踪application的状态,当然也不会处理失败的task。
- b) ApplicationManager(AM):负责从Scheduler申请资源,以及跟踪这些资源的使用情况以及任务进度的监控; 负责与RM调度器协商以获取的资源用Container表现,;
- c) Container:是YARN中对任务运行环境资源的抽象,它封装了某个节点上的多维度资源,如内存、CPU、磁盘、网络等,当AM向RM申请资源时,RM为AM返回的资源便是用Container表现。YARN会为每个任务分配一个Container,且该任务只能使用该Container中形貌的资源。(启动命令等任务运行相干的信息资源分配与调度)
- NodeManager(NM):是单个节点上的资源和任务管理器,主要负责启动RM分配给AM的container以及代表AM的container,并且会监督container的运行情况;一方面,它会定时地向RM陈诉本节点上的资源使用情况(CPU、内存)和各个Container的运行状态;另一方面,它接收并处理来自AM的Container启动/制止等各种哀求。
3、Hadoop的摆设模式
① 单机:在一台机器上安装摆设;(软件地址:Apache Hadoop )
② 伪分布式:在一台机器上安装摆设,但区分脚色;
③ 完全分布式:多台机器上安装摆设,差别脚色服务安装在差别的机器上;
- - 配置文件目录:/usr/local/hadoop/etc/hadoop
- - 执行程序路径:/usr/local/hadoop/bin/Hadoop
单机安装Hadoop摆设示例:
步骤1:采购1台云主机
主机名称
| IP地址
| 相干配置
| hadoop1
| 192.168.1.50
| 最低配置2核4G
|
步骤2:单机安装Hadoop
# 拷贝云盘public/hadoop/hadoop-2.7.7.tar.gz到hadoop1 上
- [root@ecs-proxy ~]# scp hadoop-2.7.7.tar.gz 192.168.1.50:/root
复制代码 ① 安装JAVA环境及依靠
- [root@hadoop1 ~]# yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel
- [root@hadoop1 ~]# tar -zxf hadoop-2.7.7.tar.gz //解压hadoop压缩包
- [root@hadoop1 ~]# mv hadoop-2.7.7 /usr/local/hadoop //解压后拷贝到/usr/local/hadoop
- [root@hadoop1 ~]# chown -R 0.0 /usr/local/hadoop //将文件权限设为root(0.0代表UID、GID)
- [root@hadoop1 ~]# ls /usr/local/hadoop/
复制代码
② 修改Hadoop的环境变量文件(配置JAVA环境、指定hadoop配置文件路径)
# 可通过rpm-ql命令检察安装软件包java-1.8.0-openjdk的安装路径
- [root@hadoop1 ~]# rpm -ql java-1.8.0-openjdk
复制代码
- [root@hadoop1 ~]# vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
- 25: export JAVA_HOME="/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.292.b10-1.el7_9.x86_64/" //配置JAVAh环境
- 33: export HADOOP_CONF_DIR="/usr/local/hadoop/etc/hadoop" //配置文件路径
复制代码 补充:Hadoop基于JAVA开发且需使用JAVA执行,必须配置JAVA安装路径
③ 验证服务
- [root@hadoop1 ~]# /usr/local/hadoop/bin/hadoop version //查看版本
复制代码
- [root@hadoop1 ~]# /usr/local/hadoop/bin/hadoop --help //查看帮助
复制代码
步骤3:验证热门词汇分析
① 创建数据分析目录,并拷贝文件
- [root@hadoop1 ~]# cd /usr/local/hadoop
- [root@hadoop1 hadoop]# mkdir input //创建数据分析目录
- [root@hadoop1 hadoop]# cp *.txt input/ //将hadoop目录下的.txt文件拷贝
- [root@hadoop1 hadoop]# ls input/
- LICENSE.txt NOTICE.txt README.txt
复制代码 ② 运行jar程序,分析词汇出现次数
运行Hadoop官方的jar程序文件,通过wordconut算法对input目录下的全部文件举行词汇出现次数分析统计,并将统计效果输出给output分析输出目录
- [root@hadoop1 hadoop]# ./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount ./input ./output
- [root@hadoop1 hadoop]# ls ./output/
- part-r-00000 _SUCCESS
- [root@hadoop1 hadoop]# cat ./output/part-r-00000 //对词汇出现的次数统计
复制代码
集群安装Hadoop摆设示例:
HDFS、Mapreduce、YARN
1、HDFS分布式文件体系
- HDFS规划架构图:
步骤1:购买4台云主机
主机名称
| IP地址
| 相干配置
| 脚色
| 备注
| hadpoo1
| 192.168.1.50
| 最低配置2核4G
| NameNode
SecondaryNamenode
| HDFS
| node-0001
| 192.168.1.51
| 最低配置2核4G
| DateNode
| HDFS
| node-0002
| 192.168.1.52
| 最低配置2核4G
| DateNode
| HDFS
| node-0003
| 192.168.1.53
| 最低配置2核4G
| DateNode
| HDFS
|
提示:镜像模板已禁用SELinux和Firewalld,未禁用主机需提前设置;
步骤2:HDFS集群-环境准备
① 配置SSH免密登录(hadpoo1操作)
注意:Hadoop是远程在别的节点上启动脚色,所以每台主机都要能免密登录,包括本机!
补充:第一次使用SSH登录远程主机时需输入Yes,大概造成主机不能继续执行,禁用ssh key检测;
- [root@hadoop1 ~]# vim /etc/ssh/ssh_config
- 60: StrictHostKeyChecking no //禁用ssh key检测
- [root@hadoop1 ~]# ssh-keygen -t rsa -b 2048 -N '' -f /root/.ssh/id_rsa
- [root@hadoop1 ~]# for i in {50..53}
- > do
- > ssh-copy-id 192.168.1.$i
- > done
复制代码 ② 配置主机名解析(hadoop1、node-0001、node-0002、node-0003操作)
Hadoop非常依靠主机名解析,如果配置DNS解析需要正向解析和方向解析,实行中使用/etc/hosts文件来解析主机名
- [root@hadoop1 ~]# vim /etc/hosts
- 192.168.1.50 hadoop1
- 192.168.1.51 node-0001
- 192.168.1.52 node-0002
- 192.168.1.53 node-0003
- [root@hadoop1 ~]# for i in hadoop1 node-{0001..0003}
- > do
- > scp /etc/hosts $i:/etc/hosts
- > done
复制代码 ③ 为全部节点安装JAVA环境(hadoop1、node-0001、node-0002、node-0003操作)
- [root@hadoop1 ~]# for i in hadoop1 node-{0001..0003}
- > do
- > ssh $i "yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel"
- > done
复制代码
步骤3:HDFS集群-配置摆设
参考:public/hadoop/hadoop-2.7.7.tar.gz
1)HDFS配置文件目录(/usr/local/hadoop/etc/hadoop/*)
- - 环境配置文件:hadoop-env.sh
- - 焦点配置文件:core-site.xml
- - HDFS配置文件:hdfs-site.xml
- - 节点配置文件:slaves
- [root@hadoop1 ~]# ls /usr/local/hadoop/etc/hadoop/
复制代码
补充:XML语法格式
- XML指可扩展标记语言(Extensible Markup Language)
- XML中的每个元素名都是成对出现,结束标签需加【/】
例如:Hadoop配置语法
配置文件语法格式:[官方手册](Hadoop – Apache Hadoop 2.7.7)
① 配置环境配置文件(hadoop-env.sh),配置JAVA运行环境
# 可通过rpm-ql命令检察安装软件包java-1.8.0-openjdk的安装路径
- [root@hadoop1 ~]# vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
- 25: export JAVA_HOME="/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.292.b10-1.el7_9.x86_64/"
- 33: export HADOOP_CONF_DIR="/usr/local/hadoop/etc/hadoop"
复制代码 ② 配置节点配置文件(slaves)—> 摆设Datenode
- slaves是DataNode节点的配置文件,声明的主机都会运行DataNode保卫进程;
注意:slave配置文件格式,每行写一个主机名,主机名必须保证能ping通(localhost必须删除)
- [root@hadoop1 ~]# vim /usr/local/hadoop/etc/hadoop/slaves
- node-0001
- node-0002
- node-0003
复制代码 ③ 配置焦点配置文件(core-site.xml)
- [root@hadoop1 ~]# vim /usr/local/hadoop/etc/hadoop/core-site.xml
- <configuration>
- <property>
- <name>fs.defaultFS</name> //文件系统配置参数
- <value>hdfs://hadoop1:9000</value> //指定HDFS文件系统
- </property>
- <property>
- <name>hadoop.tmp.dir</name> //数据目录配置参数
- <value>/var/hadoop</value> //定义数据存放目录
- </property>
- </configuration>
复制代码 ④ 配置HDFS配置文件(hdfs-site.xml)—> 摆设namenode,Secondarynamenode
- [root@hadoop1 ~]# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
- <configuration>
- <property>
- <name>dfs.namenode.http-address</name> //声明Namenode地址
- <value>hadoop1:50070</value> //主机名:端口号,用来通信
- </property>
- <property>
- <name>dfs.namenode.secondary.http-address</name> //声明Secondarynamenode地址
- <value>hadoop1:50090</value> //主机名:端口号,用来通信
- </property>
- <property>
- <name>dfs.replication</name> //定义副本数量
- <value>2</value>
- </property>
- </configuration>
复制代码 ⑤ 同步配置文件目录到别的主机
- HDFS集群要求全部节点配置文件都必须相同
- [root@hadoop1 ~]# for i in node-{0001..0003}
- > do
- > rsync -aXSH --delete /usr/local/hadoop ${i}:/usr/local/
- > done
复制代码 ⑥ 创建数据存放目录
- 只在namenode上创建即可,别的datanode主机可自动创建
- [root@hadoop1 ~]# mkdir /var/hadoop //创建数据存放目录(core-site.xml指定)
复制代码 ⑦ 格式化HDFS集群(仅NameNode操作)
- [root@hadoop1 ~]# /usr/local/hadoop/bin/hdfs namenode -format
复制代码
补充:格式化本质是给每个存储节点分配ID,格式化只能做一次;如果格式化多次,会报错ID冲突,解决方法:起首制止集群./sbin/stop-dfs.sh,删除全部节点的数据目录配置创建的dfs目录布局rm-rf /var/Hadoop/*
⑧ 启动集群(仅NameNode操作)
- [root@hadoop1 ~]# /usr/local/hadoop/sbin/start-dfs.sh
复制代码
⑨ 验证脚色
- [root@hadoop1 ~]# for i in hadoop1 node-{0001..0003}
- > do
- > echo ${i};
- > ssh ${i} jps;
- > echo -e "\n";
- > done
复制代码
补充:jps(Java Virtual Machine Process Status Tool)是java提供的一个表现当前全部java进程pid的命令,适合在linux/unix平台上简单检察当前java进程的一些简单情况。
⑩ 验证集群
- [root@hadoop1 ~]# /usr/local/hadoop/bin/hdfs dfsadmin -report
复制代码
日记与排错
- 日记文件夹在体系启动时会被自动创建:/usr/local/hadoop/logs
- 日记名称:
- 服务名-用户名-脚色名-主机名.out //标准输出
- 服务名-用户名-脚色名-主机名.log //日记信息
- [root@hadoop1 ~]# ls /usr/local/hadoop/logs/
复制代码
2、Mapreduce分布式离线计算框架:
计算框架有多种,例如:Mapreduce、storm、spark,一般由开发人员根据企业需求编写;
实行使用官方提供的模板案例:mapred-site.xml.template
① 配置计算框架配置文件mapred-site.xml文件
- [root@hadoop1 ~]# cd /usr/local/hadoop/etc/hadoop/
- [root@hadoop1 hadoop]# cp mapred-site.xml.template mapred-site.xml
- [root@hadoop1 hadoop]# vim mapred-site.xml
- <configuration>
- <property>
- <name>mapreduce.framework.name</name> //配置使用YRAN的资源管理类
- <value>yarn</value>
- </property>
- </configuration>
复制代码
3、YARN集群资源管理体系
YARN规划架构图:
主机名称
| IP地址
| 相干配置
| 脚色
| 备注
| hadpoo1
| 192.168.1.50
| 最低配置2核4G
| NameNode
SecondaryNamenode
ResourceManager
| HDFS
YARN
| node-0001
| 192.168.1.51
| 最低配置2核4G
| DateNode
NodeManager
| HDFS
YARN
| node-0002
| 192.168.1.52
| 最低配置2核4G
| DateNode
NodeManager
| HDFS
YARN
| node-0003
| 192.168.1.53
| 最低配置2核4G
| DateNode
NodeManager
| HDFS
YARN
|
步骤1:
① 配置资源管理配置文件yarn-site.xml文件
- [root@hadoop1 ~]# vim /usr/local/hadoop/etc/hadoop/yarn-site.xml
- <configuration>
- <property>
- <name>yarn.resourcemanager.hostname</name> //全局资源管理主机(resourcemanager)
- <value>hadoop1</value>
- </property>
- <!-- Site specific YARN configuration properties -->
- <property>
- <name>yarn.nodemanager.aux-services</name> //计算框架(nodemanager)
- <value>mapreduce_shuffle</value>
- </property>
- </configuration>
复制代码 ② 同步配置文件目录到别的主机
- [root@hadoop1 ~]# for i in node-{0001..0003}
- > do
- > rsync -avXSH --delete /usr/local/hadoop/ ${i}:/usr/local/hadoop/
- > done
复制代码 ③ 启动集群
- [root@hadoop1 ~]# /usr/local/hadoop/sbin/start-yarn.sh
复制代码 ④ 验证脚色
- [root@hadoop1 ~]# for i in hadoop1 node-{0001..0003}
- > do
- > echo ${i};
- > ssh ${i} jps;
- > echo -e "\n";
- > done
复制代码
⑤ 验证集群
- [root@hadoop1 ~]# /usr/local/hadoop/bin/yarn node -list
复制代码
⑥ WEB页面访问
# 使用华为云给Hadoop1绑定弹性公网IP(例如:124.71.115.1)
(1)NameNode:http://hadoop1:50070
(2)SecondaryNamenode:http://hadoop1:50090
(3)ResourceManager:http://hadoop1:8088/cluster
(4)DataNode:http://node-0001:50075
(5)NodeManager:http://node-0001:8042/node
小结:
本篇章节为【第五阶段】ARCHITECTURE-DAY3 的学习条记,这篇条记可以开端 了解Hadoop与大数据的关系,明白HDFS、Mapreduce、Yarn的架构、调用Hadoop执行数据分析的方法、搭建分布式Hadoop执行,除此之外推荐参考相干学习网址:
- Hadoop焦点组件 - dorothychai - 博客园
- YARN的架构及原理 - 子墨言良 - 博客园
Tip:究竟两个人的智慧大于一个人的智慧,如果你不明白本章节的内容或需要相干条记、视频,可私信小安,请不关键羞和回避,可以向他人讨教,花点时间直到你真正的明白。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |