本文另有配套的精品资源,点击获取
简介:Apache Spark是一个开源的高效大数据处理框架,特别强调性能优化和功能增强,尤其是在SQL、呆板学习和流处理方面。最新稳固版本Spark 3.0.1引入了诸多改进,如DataFrame优化、Kubernetes原生支持、PySpark改进和安全性增强。本指南针对不带Hadoop预设置的Spark 3.0.1版本,详述了怎样手动设置和启动Spark情况,以及介绍Spark的核心组件如Spark Core、SQL、Streaming、MLlib和GraphX的使用方法。同时,涵盖了安装设置、启动Shell和作业提交等关键步骤,旨在资助用户有用使用Spark处理和分析大规模数据。
1. Spark高效大数据处理框架简介
在大数据处理范畴,Apache Spark作为一项革命性的开源框架,已经成为数据科学家和工程师的首选工具。Spark的核心在于其能够提供高速的盘算能力,它不仅仅是一个大数据处理引擎,还提供了一个丰富的生态系统,支持各种数据处理使命,包罗批处理、流处理、呆板学习和图算法等。与传统的Hadoop MapReduce相比,Spark能够在内存中处理数据,这使得它能够明显提高数据处理的速度。接下来的章节将深入探究Spark的最新版本、核心组件,以及怎样在没有Hadoop情况的条件下举行设置,并掌握使用Spark Shell举行作业提交和管理的技巧。
2. Spark 3.0.1版本新特性和性能优化
2.1 Spark 3.0.1的新特性
2.1.1 新增功能介绍
在Spark 3.0.1版本中,引入了许多引人注目的新功能,以增强其大数据处理能力。以下几个功能特别值得注意:
- Spark SQL的动态分区裁剪(Dynamic Partition Pruning) :通过淘汰不必要的分区读取,明显提高查询性能。
- 对Spark DataFrame和Dataset API的改进 :这些改进使得对数据的处理和操纵变得更加直观和高效。
- 新的自适应查询执行(Adaptive Query Execution) :它自动优化查询计划,以提供更优的执行性能。
这些新增功能不仅使得数据科学家和工程师在处理大数据集时更加得心应手,还进一步提升了Spark在各种大数据应用中的竞争力。
2.1.2 性能改进和提升
新版本的Spark不仅增长了新功能,还在性能方面做了多项改进,这些提升使Spark更上一层楼:
- 内存管理的优化 :改进内存使用效率,淘汰了内存溢出的风险,尤其是在数据倾斜的情况下。
- 更好的并行处理 :调整了底层执行引擎,更好地使用多核CPU和集群资源,缩短了作业的执行时间。
- 改进的性能监控 :提供更细致的性能指标和更灵活的性能监控工具,便于用户分析和优化应用。
通过这些性能优化,用户可以更加高效地使用Spark处理大规模数据集,从而能够更快地从数据中提取代价。
2.2 Spark 3.0.1的性能优化
2.2.1 内存管理优化
内存管理是任何大数据处理框架的核心构成部门。Spark 3.0.1对内存管理举行了重大优化,以解决内存溢出和性能瓶颈问题。
- 统一的内存管理模子(Unified Memory Manager) :这个新特性使得堆内存和非堆内存之间的管理更加灵活,淘汰了内存碎片化,提高了内存使用率。
- 堆内存和执行内存的比例动态调整 :系统可以基于实时工作负载动态地调整内存分配,从而更有用地使用可用内存。
这些改进意味着用户在处理大量数据时,不必要再频繁地手动调整内存设置,Spark可以自动优化以适应差别场景。
2.2.2 SQL性能优化
SQL是数据处理中最为常用的操纵之一,Spark 3.0.1在SQL性能上的改进尤为明显:
- 动态分区裁剪 :通过淘汰不必要的分区读取,明显提高了查询效率。
- 优化的自适应查询执行 :它能够实时监控执行计划,并根据执行过程中的统计信息动态调整执行计划,淘汰了数据倾斜的影响。
- 持续的Catalyst查询优化器改进 :它通过更高效的规则和表达式优化来提升SQL查询性能。
这些优化一起作用,让Spark SQL执行查询的速度更快,对资源的使用更加高效。
2.2.3 Spark Streaming优化
Spark Streaming是Spark对实时数据流处理的解决方案。在3.0.1版本中,对Spark Streaming的优化同样引人注目:
- 引入了结构化流(Structured Streaming) :它基于Spark SQL引擎,提供了一种更高级别的抽象,使得流处理与批处理的边界变得更加含糊,带来了更大的灵活性和更强的性能。
- 改进的反压机制 :这种机制可以动态地调整批量大小和数据处理速度,以匹配资源的使用和数据的产生速度,从而到达最佳的吞吐量。
通过这些优化,Spark Streaming不仅在性能上得到了提升,同时也变得更易于使用和集成到更大的数据处理流程中。
在接下来的章节中,我们将具体探究这些新特性和性能优化怎样在实际应用中被部署和使用。通过实例和最佳实践,我们将展示怎样将这些技能上风转化为企业的大数据竞争力。
3. Spark核心组件介绍与应用
3.1 Spark核心组件概述
3.1.1 Spark Core组件
Spark Core是整个Spark生态系统的核心,提供了使命调度、内存管理以及与存储系统的交互等功能。它定义了分布式数据集(RDDs)的概念,这是一种可以分布在集群中举行并行操纵的弹性数据集。RDD是Spark的基石,提供了一种容错的并行数据处理方式,它能够保持数据的内存缓存,支持多种操纵,如map、reduce、filter等。
3.1.2 Spark SQL组件
Spark SQL是用于处理结构化数据的模块,提供了DataFrame和DataSet API,极大地简化了对结构化数据的处理。通过Spark SQL,用户能够使用SQL语句来查询数据,也可以通过DataFrame API来操纵数据。Spark SQL支持多种数据源,包罗JSON、Hive、Parquet等,并且可以和其他数据处理框架举行无缝连接。
3.1.3 Spark Streaming组件
Spark Streaming是用于处理实时数据流的组件。它将实时数据流抽象为一系列一连的RDDs,并允许对这些流举行各种转换和动作操纵。该组件在微批处理模子上实现流处理,可以与Spark Core、Spark SQL等无缝集成,非常恰当构建实时的数据处理管道。
3.1.4 MLlib和GraphX组件
MLlib是Spark中的呆板学习库,它提供了多种常见的呆板学习算法以及底层的优化原语和实用程序。GraphX是用于图盘算的库,扩展了RDD的抽象,为图和图并行盘算提供了基础。GraphX不仅能够处理大规模图数据,还支持图形并行盘算,为社交网络分析、网络分析和推荐系统等场景提供了强盛的支持。
3.2 Spark组件在大数据处理中的应用
3.2.1 数据处理和分析
Spark Core的RDD抽象使得开辟者可以轻松地执行数据处理使命。比方,通过对大数据集应用一系列的transformation和action操纵,可以执行复杂的盘算使命。以下是一个简单的例子,展示了怎样使用RDD举行数据过滤和统计:
- val lines = sc.textFile("hdfs://...")
- val errors = lines.filter(_.contains("ERROR"))
- val errorCount = errors.count()
复制代码 在这个例子中, lines 是一个指向存储在HDFS上的文本文件的RDD。使用 filter 方法筛选出包罗"ERROR"的行,然后使用 count 方法统计错误的数目。这个过程展示了Spark处理大规模数据集的能力。
3.2.2 流数据处理
使用Spark Streaming,我们可以轻松地处理流式数据。Spark Streaming使用微批处理的方式将实时数据流处理为一系列的小批次,每个批次作为一个RDD举行处理。以下是一个使用Spark Streaming吸收Kafka消息并举行处理的例子:
- import org.apache.spark._
- import org.apache.spark.streaming._
- import org.apache.spark.streaming.kafka._
- val conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount")
- val ssc = new StreamingContext(conf, Seconds(1))
- val topics = Set("topic1", "topic2")
- val kafkaParams = Map[String, String]("metadata.broker.list" -> "localhost:9092")
- val stream = KafkaUtils.createStream(ssc, "localhost:2181", "spark-streaming-consumer", topics)
- stream.map(_._2).flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _).print()
复制代码 在这段代码中,首先创建了一个 StreamingContext ,并设置了每1秒处理一批次数据。通过 KafkaUtils.createStream 方法创建了一个Kafka数据流,然后对消息举行处理,最终输出每个词的频率统计。
3.2.3 呆板学习和图盘算
在呆板学习应用中,MLlib提供了一系列的算法,如聚类、分类、回归等,可以用于构建猜测模子。以下是使用MLlib中的线性回归算法举行回归分析的例子:
- import org.apache.spark.mllib.regression.LabeledPoint
- import org.apache.spark.mllib.linalg.Vectors
- import org.apache.spark.mllib.regression.LinearRegressionWithSGD
- val data = sc.textFile("hdfs://...")
- val parsedData = data.map { line =>
- val parts = line.split(' ')
- LabeledPoint(parts(0).toDouble, Vectors.dense(parts(1).split(',').map(_.toDouble)))
- }.cache()
- val numIterations = 20
- val model = LinearRegressionWithSGD.train(parsedData, numIterations)
复制代码 在这个例子中,首先从HDFS读取数据并将其解析为 LabeledPoint ,这些点包罗了特性和标签。然后使用线性回归算法练习模子,并使用SGD(随机梯度下降)方法举行迭代。末了,模子可以用于猜测新数据点的标签。
对于图盘算,GraphX提供了一套高效的图盘算API。下面是一个使用GraphX构建图并举行盘算的例子:
- import org.apache.spark.graphx._
- val graph = GraphLoader.edgeListFile(sc, "hdfs://...")
- val degrees = graph.degrees
复制代码 在这段代码中, GraphLoader.edgeListFile 用于从HDFS读取边列表文件并创建一个图对象。 degrees 操纵盘算图中每个顶点的度数。GraphX的API支持从简单的图属性盘算到复杂的图算法,如PageRank、最短路径等。
通过上述示例,我们可以看到Spark的核心组件在数据处理、流处理、呆板学习以及图盘算等范畴的强盛应用能力。这些组件使得Spark不仅限于快速的大数据处理,还提供了高度灵活的数据分析能力。
4. Spark without Hadoop情况设置指南
4.1 Spark without Hadoop情况介绍
4.1.1 情况需求和设置原则
对于希望在没有Hadoop情况的情况下使用Spark的用户来说,一个独立的Spark情况是必须的。独立情况可以简化资源管理和调度,使得Spark能够更专注于大数据处理使命。情况设置时必要思量的要素包罗但不限于操纵系统兼容性、内存管理、网络通讯及存储系统。
设置原则主要遵照以下几个方面:
- 最小系统需求 :确保系统满足Spark运行所需的最小硬件和软件资源。比方,至少必要2GB的内存和一个兼容Java 8或更高版本的操纵系统。
- 版本兼容性 :Spark版本和系统情况必要相互兼容。根据官方文档,差别版本的Spark支持的Scala和Python版本有所差别,安装时必要选择符合版本以确保兼容性。
- 网络设置 :保证网络畅通,制止防火墙等安全步伐影响节点间的通讯。
- 内存管理 :Spark是内存盘算框架,合理设置内存使用,制止内存溢出和资源浪费。
- 存储系统选择 :选择恰当的存储系统以满足数据读写性能需求,比方,HDD或SSD。
4.1.2 情况变量设置和设置文件编辑
情况变量的设置是确保Spark能够正确运行和被下令行辨认的关键步骤。在UNIX类操纵系统中,通常通过编辑 ~/.bashrc 或 ~/.profile 文件来设置情况变量,而在Windows系统中则是通过系统的情况变量设置界面。
对于Spark而言,主要必要设置的情况变量有:
- JAVA_HOME :指向Java的安装目录。
- SPARK_HOME :指向Spark的安装目录。
- PATH :包罗 $SPARK_HOME/bin 和 $JAVA_HOME/bin ,确保可以在任何目录下调用 spark-shell 和 spark-submit 等下令。
设置文件编辑则涉及到Spark安装目录下的 conf/spark-env.sh ,在这里可以设置 JAVA_HOME 等情况变量,还可以设置其他如 SPARK_WORKER_MEMORY 等特定于Spark的参数。
示例代码块展示了在UNIX系统中怎样编辑 ~/.bashrc 文件来设置情况变量:
- # 设置JAVA_HOME环境变量
- export JAVA_HOME=/path/to/your/java
- # 设置SPARK_HOME环境变量
- export SPARK_HOME=/path/to/your/spark
- # 将Spark可执行文件路径添加到PATH环境变量中
- export PATH=$PATH:$SPARK_HOME/bin
- # 使改动生效
- source ~/.bashrc
复制代码 在完成上述情况变量设置之后,举行情况设置的下一步就是安装和设置Java和Scala情况,然后安装Spark并举行相应的设置。
4.2 Spark without Hadoop情况设置步骤
4.2.1 安装和设置Java情况
Spark是用Java编写的,因此在安装Spark之前必要安装Java开辟工具包(JDK)。以下是安装Java情况的步骤:
- 下载恰当您操纵系统的JDK版本。可以从Oracle官网或OpenJDK社区下载。
- 安装JDK。在Linux上,通常必要解压下载的文件到一个目录,并设置 JAVA_HOME 情况变量。
- 验证安装。使用下令 java -version 来检查是否安装成功。
示例代码块展示了怎样在Linux上安装OpenJDK:
- # 下载OpenJDK
- wget --no-check-certificate --no-cookies --header "Cookie: oraclelicense=accept-securebackup-cookie" http://download.oracle.com/otn-pub/java/jdk/14.0.1+7/5dc84b413e50403b9c1127f5267309fa/openjdk-14.0.1_linux-x64_bin.tar.gz
- # 解压文件
- tar -xzvf openjdk-14.0.1_linux-x64_bin.tar.gz
- # 设置JAVA_HOME环境变量
- export JAVA_HOME=/path/to/openjdk-14.0.1
- # 更新PATH变量
- export PATH=$JAVA_HOME/bin:$PATH
- # 验证安装
- java -version
复制代码 4.2.2 安装和设置Scala情况
虽然Spark可以运行在Java、Python、R等多种语言情况中,Scala是其最自然的运行语言。以下是安装和设置Scala情况的步骤:
- 从Scala官网下载恰当的操纵系统的Scala发行版本。
- 解压Scala发行包到指定目录。
- 设置 SCALA_HOME 情况变量,并更新 PATH 变量。
示例代码块展示了怎样在Linux上安装Scala:
- # 下载Scala
- wget https://downloads.lightbend.com/scala/2.12.11/scala-2.12.11.tgz
- # 解压Scala
- tar -xzvf scala-2.12.11.tgz
- # 设置SCALA_HOME环境变量
- export SCALA_HOME=/path/to/scala-2.12.11
- # 更新PATH变量
- export PATH=$SCALA_HOME/bin:$PATH
- # 验证安装
- scala -version
复制代码 4.2.3 安装和设置Spark情况
安装Spark是使用其强盛的数据处理能力完成使命的前提。Spark的安装包罗下载Spark发行包、设置情况变量、设置必要的Spark设置文件。
- 从Apache Spark官网下载与Scala兼容的最新稳固版本。
- 解压Spark下载的文件到一个目录。
- 设置 SPARK_HOME 情况变量,并更新 PATH 变量,以便可以在下令行中使用Spark的shell和submit下令。
- 编辑 $SPARK_HOME/conf/spark-env.sh 和 spark-defaults.conf 文件举行内存和集群的设置。
示例代码块展示了怎样在Linux上安装Spark:
- # 下载Spark
- wget https://downloads.apache.org/spark/spark-3.0.1/spark-3.0.1-bin-hadoop3.2.tgz
- # 解压Spark
- tar -xzvf spark-3.0.1-bin-hadoop3.2.tgz
- # 设置SPARK_HOME环境变量
- export SPARK_HOME=/path/to/spark-3.0.1-bin-hadoop3.2
- # 更新PATH变量
- export PATH=$SPARK_HOME/bin:$PATH
- # 编辑spark-env.sh(如果不存在,需要创建)
- # 可以配置JAVA_HOME等变量和Spark运行时内存大小
- export JAVA_HOME=/path/to/your/java
- export SPARK_WORKER_MEMORY=2g
- # 复制配置模板
- cp $SPARK_HOME/conf/spark-defaults.conf.template $SPARK_HOME/conf/spark-defaults.conf
- # 编辑spark-defaults.conf来设置相关的配置参数
复制代码 通过以上步骤,Spark的安装和设置就完成了。下一步,可以使用 spark-shell 或 spark-submit 下令来运行Spark作业。
必要注意的是,在设置Spark without Hadoop情况时,通常必要调整一些特定的设置参数,以确保Spark在没有Hadoop支持的情况下也能正常运行。具体设置可以根据个人需求和硬件条件调整。
设置完成后,可以通过运行一些简单的测试代码来验证Spark是否能够正常工作。假如一切顺遂,说明Spark情况已经设置成功,可以开始探索Spark丰富的数据处理能力了。
5. Spark Shell与作业提交操纵指南
5.1 Spark Shell操纵基础
5.1.1 Spark Shell的启动和使用
Spark Shell是Spark自带的一个交互式工具,主要用于测试和学习。启动Spark Shell非常简单,只需在终端输入 spark-shell 下令即可。当Spark Shell运行后,它会加载一个驱动程序,该驱动程序设置了一个SparkContext对象,用于与Spark集群举行通讯。
- # 启动Spark Shell
- $ spark-shell --master local[*]
复制代码 在Spark Shell中,可以使用Scala语言执行代码。输入的每一行Scala代码都会被SparkContext处理,并表现效果。比方,可以使用以下下令来创建一个RDD(弹性分布式数据集)并对其举行操纵:
- // 在Spark Shell中创建一个包含数字1到5的RDD
- val numbers = sc.parallelize(1 to 5)
- // 计算该RDD中的所有元素之和
- val sum = numbers.reduce(_ + _)
- // 打印结果
- println(sum)
复制代码 执行上述代码后,Spark Shell将输出数字的总和。这种交互式操纵极大地便利了数据处理和功能测试的过程。
5.1.2 Spark Shell的交互式编程
交互式编程是Spark Shell的一大特点,允许开辟者能够即时地对数据集举行操纵和分析。在使用Spark Shell时,可以执行任何Scala代码,包罗导入外部库、定义函数、创建数据结构等。这为数据探索和算法开辟提供了极大的便利。
以下是一些常见的Spark Shell交互式编程操纵:
- // 导入外部库
- import org.apache.spark.sql.SparkSession
- // 创建SparkSession对象
- val spark = SparkSession.builder()
- .appName("Spark Shell Example")
- .getOrCreate()
- // 读取CSV文件
- val df = spark.read.format("csv")
- .option("header", "true")
- .option("inferSchema", "true")
- .load("path/to/your/csvfile.csv")
- // 显示数据集的前20行
- df.show()
复制代码 在交互式情况中,可以快速调整代码并立即看到效果,这对于学习和开辟复杂的数据处理使命来说非常有用。
5.2 Spark作业提交与管理
5.2.1 Spark作业提交流程
Spark作业提交涉及到将应用程序打包并提交到集群中执行。这可以通过多种方式实现,如使用 spark-submit 下令行工具。 spark-submit 是一个用于提交应用程序的下令行工具,它允许用户指定应用程序的设置参数。
- # 提交Spark作业
- $ spark-submit \
- --class com.example.MySparkApp \
- --master yarn \
- --deploy-mode cluster \
- --name MySparkJob \
- /path/to/my-spark-app.jar
复制代码 在上述例子中, --class 指定了要运行的主类, --master 指定了集群的Master URL, --deploy-mode 指定了部署模式, --name 为作业起了一个名称。提交作业后,可以通过监控工具跟踪作业的执行状态。
5.2.2 Spark作业的监控和管理
提交作业后,必要对作业的执行举行监控和管理。Spark提供了一个Web UI界面,通过访问集群管理器的指定端口可以查看作业的实时状态、资源斲丧和使命执行详情。
在Spark Web UI中,可以查看如下信息:
- 应用程序摘要:包罗作业状态、总执行时间、资源用量等
- 使命执行:展示每个阶段的使命执行统计信息
- 情况信息:表现Spark运行的情况和设置信息
5.2.3 Spark作业的调试和优化
当作业运行出现异常大概执行效率不高时,就必要举行调试和优化。调试Spark作业通常必要查看日志信息,分析执行计划,以及检查数据倾斜等问题。
以下是优化Spark作业的几个常用策略:
- 淘汰数据序列化开销 :通过选择符合的序列化库来淘汰数据传输的开销。
- 提高并行度 :通过调整分区数目来提高作业的并行度。
- 使用持久化 :通过合理使用RDD的持久化功能,可以淘汰数据的重复盘算。
- 调整执行器资源 :调整执行器的内存和CPU核心数,以适应差别的盘算使命需求。
- // 示例:调整RDD的持久化级别
- numbers.persist(StorageLevel.MEMORY_AND_DISK)
复制代码 通过监控工具和优化策略的应用,可以明显提高Spark作业的性能和稳固性。
6. Spark作业的调试和优化
6.1 理解Spark作业执行流程
在开始调试和优化之前,相识Spark作业的执行流程至关告急。Spark作业从提交给集群开始,会颠末以下几个步骤:
- 驱动程序(Driver Program)初始化 :启动用户提交的代码,解析应用并创建作业。
- 作业划分 :根据RDD的依靠关系,将作业划分为多个阶段(Stages)。
- 使命调度 :将各个阶段的使命(Tasks)分配给集群中的工作节点(Worker Node)。
- 使命执行 :每个使命在工作节点上执行,举行数据处理。
- 使命效果汇总 :汇总所有使命的效果,形成最终输出。
理解这一流程有助于在调试和优化时找到可能的瓶颈地点。
6.2 调试Spark作业的策略
调试Spark作业时,可以遵照以下策略:
- 使用日志 :合理设置日志级别,获取具体的执行信息,以资助定位问题。
- 查看Web UI :通过Spark的Web用户界面监控作业的执行情况,包罗执行计划、使命的进度、阶段的时间斲丧等。
- 添加测试点 :在代码的关键位置添加打印语句大概使用Spark的 count 、 collect 等举措操纵(action)来触发使命执行,并观察输出效果。
- 分布式跟踪系统 :集成分布式跟踪系统,如Zipkin,来跟踪跨多个节点的使命执行情况。
6.3 Spark作业优化方法
在调试后,针对发现的问题举行优化,以下是几个常见的优化方法:
6.3.1 数据序列化
合理的数据序列化方式可以淘汰内存斲丧并提高处理速度。
- 选择符合的序列化库 :Spark默认使用Java序列化,可以改用Kryo序列化以提高效率。
- 优化序列化数据结构 :自定义类时实现 Serializable 接口,优化对象的序列化举动。
6.3.2 执行并行度
合理的并行度可以最大化集群资源的使用。
- 调整分区数目 :通过 repartition 或 coalesce 调整RDD的分区数目。
- 制止过小的分区 :过小的分区会导致使命调度开销增大。
6.3.3 内存管理
优化内存的使用可以提升Spark应用的性能。
- 内存分配 :合理分配执行内存和存储内存,制止内存溢出。
- 广播大变量 :使用 broadcast 方法对大变量举行广播,制止在使命间重复传输。
6.3.4 Shuffle操纵优化
Shuffle操纵是资源斲丧的大户,优化Shuffle可以明显提高性能。
- 优化Shuffle过程 :使用 mapPartitions 代替 map 可以淘汰Shuffle的数据量。
- 淘汰Shuffle写磁盘次数 :通过调整 spark.shuffle.file.buffer 和 spark.shuffle.sort.bypassMergeThreshold 等参数来淘汰磁盘I/O次数。
6.4 使用Spark UI举行性能分析
Spark的Web UI界面是性能分析的利器,它提供了一个直观的仪表盘来分析作业的性能。
- 作业执行历史 :可以查看历史作业的统计信息,包罗运行时间、失败信息等。
- 阶段和使命 :查看每个阶段和使命的性能指标,如执行时间、GC时间、Shuffle读写量等。
- 存储级别和垃圾回收 :分析RDD的存储级别,监控垃圾回收举动。
下面是使用Spark UI举行性能分析的简要步骤:
- 在欣赏器中打开 http://<driver_host>:4040 , driver_host 是驱动程序地点主机。
- 查看“Stages”页面,找出执行时间长的阶段。
- 点击具体阶段,进入“Stage Detail”页面,查看使命执行情况。
- 分析页面中的图表和日志,找到性能瓶颈。
- 根据分析效果调整作业设置并重新提交作业。
通过上述步骤,可以系统地举行Spark作业的调试和优化,提升作业执行效率,实现大数据处理的最大效能。
- | 阶段ID | 任务ID | 持续时间 | 执行器内存 | GC时间 |
- |--------|--------|----------|------------|--------|
- | 0 | 0 | 2s | 512MB | 120ms |
- | 0 | 1 | 1.8s | 512MB | 110ms |
- | ... | ... | ... | ... | ... |
复制代码 通过表格形式,我们可以清楚地看到差别使命的性能表现,这有助于对比和分析使命间的性能差异。
本文另有配套的精品资源,点击获取
简介:Apache Spark是一个开源的高效大数据处理框架,特别强调性能优化和功能增强,尤其是在SQL、呆板学习和流处理方面。最新稳固版本Spark 3.0.1引入了诸多改进,如DataFrame优化、Kubernetes原生支持、PySpark改进和安全性增强。本指南针对不带Hadoop预设置的Spark 3.0.1版本,详述了怎样手动设置和启动Spark情况,以及介绍Spark的核心组件如Spark Core、SQL、Streaming、MLlib和GraphX的使用方法。同时,涵盖了安装设置、启动Shell和作业提交等关键步骤,旨在资助用户有用使用Spark处理和分析大规模数据。
本文另有配套的精品资源,点击获取
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |