李优秀 发表于 2024-8-21 01:40:54

PySpark 大数据分析实用指南(一)

原文&#xff1

a;zh.annas-archive.org/md5/62C4D847CB664AD1
379DE037B94D0AE5
译者&#xff1

a;飞龙
协议&#xff1

a;CC BY-NC-SA 4.0
前言

Apache Spark 是一个开源的并行处理框架,已经存在了相当长的时间。Apache Spark 的许多用途之一是在集群计算机上进行数据分析应用程序。
本书将资助您实施一些实用和颠末验证的技术,以改进 Apache Spark 中的编程和管理方面。您不但将学习如何使用 Spark 和 Python API 来创建高性能的大数据分析,还将发现测试、保护和并行化 Spark 作业的技术。
本书涵盖了 PySpark 的安装和设置、RDD 操作、大数据清理和整理,以及将数据聚合和总结为有用报告。您将学习如何从所有流行的数据托管平台(包括 HDFS、Hive、JSON 和 S3)获取数据,并使用 PySpark 处理大型数据集,获得实际的大数据经验。本书还将资助您在本地呆板上开辟原型,然后渐渐处理生产情况和大规模的混乱数据。
本书的受众

本书适用于开辟人员、数据科学家、业务分析师或任何需要可靠地分析大量大规模真实世界数据的人。无论您是负责创建公司的商业智能功能,还是为呆板学习模型创建出色的数据平台,或者希望使用代码放大业务影响,本书都得当您。
本书涵盖的内容

第一章《安装 Pyspark 并设置开辟情况》涵盖了 PySpark 的安装,以及学习 Spark 的焦点概念,包括弹性分布式数据集(RDDs)、SparkContext 和 Spark 工具,如 SparkConf 和 SparkShell。
第二章《使用 RDD 将大数据导入 Spark 情况》表明了如何使用 RDD 将大数据导入 Spark 情况,使用各种工具与修改数据进行交互,以便提取有用的见解。
第三章《使用 Spark 条记本进行大数据清理和整理》介绍了如何在条记本应用程序中使用 Spark,从而促进 RDD 的有用使用。
第四章《将数据聚合和总结为有用报告》形貌了如何使用 map 和 reduce 函数计算匀称值,实行更快的匀称值计算,并使用键/值对数据点的数据透视表。
第五章《使用 MLlib 进行强盛的探索性数据分析》探讨了 Spark 实行回归任务的本领,包括线性回归和 SVM 等模型。
第六章《使用 SparkSQL 为大数据添加结构》表明了如何使用 Spark SQL 模式操作数据框,并使用 Spark DSL 构建结构化数据操作的查询。
第七章《转换和操作》介绍了 Spark 转换以推迟计算,然后考虑应制止的转换。我们还将使用reduce和reduceByKey方法对数据集进行计算。
第八章《不可变设计》表明了如何使用 DataFrame 操作进行转换,以讨论高度并发情况中的不可变性。
第九章《制止洗牌和减少运营本钱》涵盖了洗牌和应该使用的 Spark API 操作。然后我们将测试在 Apache Spark 中引起洗牌的操作,以相识应制止哪些操作。
第十章《以精确格式保存数据》表明了如何以精确格式保存数据,以及如何使用 Spark 的标准 API 将数据保存为纯文本。
第十一章《使用 Spark 键/值 API》,讨论了可用于键/值对的转换。我们将研究键/值对的操作,并查看键/值数据上可用的分区器。
第十二章《测试 Apache Spark 作业》更详细地讨论了在差别版本的 Spark 中测试 Apache Spark 作业。
第十三章,利用 Spark GraphX API,介绍了如何利用 Spark GraphX API。我们将对 Edge API 和 Vertex API 进行实验。
充分利用本书

本书需要一些 PySpark、Python、Java 和 Scala 的根本编程经验。
下载示例代码文件

您可以从您在www.packt.com的帐户中下载本书的示例代码文件。假如您在其他地方购买了这本书,您可以访问www.packt.com/support并注册,以便文件直接通过电子邮件发送给您。
您可以按照以下步骤下载代码文件&#xff1

a;
[list=1
]
[*] 在www.packt.com登录或注册。
[*] 选择“支持”选项卡。
[*] 单击“代码下载和勘误”。
[*] 在搜刮框中输入书名并按照屏幕上的分析操作。
下载文件后,请确保使用最新版本的解压缩或提取文件夹&#xff1

a;


[*] WinRAR/7-Zip for Windows
[*] Zipeg/iZip/UnRarX for Mac
[*] 7-Zip/PeaZip for Linux
本书的代码包也托管在 GitHub 上,网址为github.com/PacktPublishing/Hands-On-Big-Data-Analytics-with-PySpark。假如代码有更新,将在现有的 GitHub 存储库上进行更新。
我们另有其他代码包,来自我们丰富的册本和视频目次,可在**github.com/PacktPublishing/**上找到。请查看&#xff01
;
下载彩色图像

我们还提供了一个 PDF 文件,此中包含本书中使用的屏幕截图/图表的彩色图像。您可以在这里下载&#xff1

a;www.packtpub.com/sites/default/files/downloads/9781
8386441
30_ColorImages.pdf。
使用的约定

本书中使用了许多文本约定。
CodeInText&#xff1

a;指示文本中的代码词、数据库表名、文件夹名、文件名、文件扩展名、路径名、虚拟 URL、用户输入和 Twitter 句柄。以下是一个例子&#xff1

a;“将下载的WebStorm-1
0*.dmg磁盘映像文件挂载为系统中的另一个磁盘。”
代码块设置如下&#xff1

a;
test("Should use immutable DF API") {
    import spark.sqlContext.implicits._
    //given
    val userData &#61
;
      spark.sparkContext.makeRDD(List(
            UserData("a", "1
"),
            UserData("b", "2"),
            UserData("d", "20
0")
      )).toDF()
当我们希望引起您对代码块的特定部门的留意时,相关行或项目将以粗体表现&#xff1

a;
class ImmutableRDD extends FunSuite {
    val spark: SparkContext &#61
; SparkSession
      .builder().master("local").getOrCreate().sparkContext

test("RDD should be immutable") {
    //given
    val data &#61
; spark.makeRDD(0 to 5)
任何命令行输入或输出都以以下方式编写&#xff1

a;
total_duration
/(normal_data.count())
粗体&#xff1

a;表现一个新术语、一个重要词或屏幕上看到的词。例如,菜单或对话框中的词会以这种方式出如今文本中。以下是一个例子&#xff1

a;“从管理面板中选择系统信息。”
警告或重要分析会出如今这样的地方。
提示和本领会出如今这样的地方。
第一章&#xff1

a;安装 Pyspark 并设置开辟情况

在本章中,我们将介绍 Spark 并学习焦点概念,如 SparkContext,以及 Spark 工具,如 SparkConf 和 Spark shell。唯一的先决条件是对根本 Python 概念的相识,并且希望从大数据中寻求洞察力。我们将学习如何使用 Spark SQL 分析和发现模式,以改进我们的业务智能。别的,您将能够通过设置 PySpark 来快速迭代庖理方案。在本书结束时,您将能够使用 PySpark 处理真实的混乱数据集,从而获得实际的大数据经验。
在本章中,我们将涵盖以下主题&#xff1

a;


[*] PySpark 概述
[*] 在 Windows 上设置 Spark 和 PySpark
[*] Spark 和 PySpark 中的焦点概念
PySpark 概述

在开始安装 PySpark 之前,PySpark 是 Spark 的 Python 接口,让我们先相识一些 Spark 和 PySpark 的焦点概念。Spark 是 Apache 的最新大数据工具,可以通过简朴地转到spark.apache.org/找到。它是用于大规模数据处理的同一分析引擎。这意味着,假如您有大量数据,您可以将这些数据输入 Spark 以快速创建一些分析。假如我们比力 Hadoop 和 Spark 的运行时间,Spark 比 Hadoop 快一百倍以上。它非常易于使用,因为有非常好的 API 可用于与 Spark 一起使用。
Spark 平台的四个重要组件如下&#xff1

a;


[*] Spark SQL&#xff1

a;Spark 的清理语言
[*] Spark Streaming&#xff1

a;答应您提供实时流数据
[*] MLlib(呆板学习)&#xff1

a;Spark 的呆板学习库
[*] GraphX(图形)&#xff1

a;Spark 的图形库
Spark 中的焦点概念是 RDD,它雷同于 pandas DataFrame,或 Python 字典或列表。这是 Spark 用来在基础设施上存储大量数据的一种方式。RDD 与存储在本地内存中的内容(如 pandas DataFrame)的关键区别在于,RDD 分布在许多呆板上,但看起来像一个同一的数据集。这意味着,假如您有大量数据要并行操作,您可以将其放入 RDD 中,Spark 将为您处理并行化和数据的集群。
Spark 有三种差别的接口,如下所示&#xff1

a;


[*] Scala
[*] Java
[*] Python
Python 雷同于 PySpark 集成,我们将很快介绍。如今,我们将从 PySpark 包中导入一些库,以资助我们使用 Spark。我们理解 Spark 的最佳方式是查看示例,如下面的屏幕截图所示&#xff1

a;
lines &#61
; sc

.textFile("data.txt")
lineLengths &#61
; lines.map(lambda s: len(s))
totalLength &#61
; lineLengths.reduce(lambda a, b: a + b)
在上面的代码中,我们通过调用SC.textFile("data.txt")创建了一个名为lines的新变量。sc

是代表我们的 Spark 集群的 Python 对象。Spark 集群是一系列存储我们的 Spark 进程的实例或云计算机。通过调用textFile构造函数并输入data.text,我们可能已经输入了一个大型文本文件,并仅使用这一行创建了一个 RDD。换句话说,我们在这里要做的是将一个大型文本文件输入到分布式集群和 Spark 中,而 Spark 会为我们处理这个集群。
在第二行和第三行,我们有一个 MapReduce 函数。在第二行,我们使用lambda函数将长度函数映射到data.text的每一行。在第三行,我们调用了一个减少函数,将所有lineLengths相加,以产生文档的总长度。虽然 Python 的lines是一个包含data.text中所有行的变量,但在幕后,Spark 实际上正在处理data.text的片断在 Spark 集群上的两个差别实例上的分布,并处理所有这些实例上的 MapReduce 计算。
Spark SQL

Spark SQL 是 Spark 平台上的四个组件之一,正如我们在本章中之前看到的。它可以用于实行 SQL 查询或从任何现有的 Hive 绝缘中读取数据,此中 Hive 也是来自 Apache 的数据库实现。Spark SQL 看起来非常雷同于 MySQL 或 Postgres。以下代码片断是一个很好的例子&#xff1

a;
#Register the DataFrame as a SQL temporary view
df.CreateOrReplaceTempView("people")

sqlDF &#61
; spark.sql("SELECT * FROM people")
sqlDF.show()

#+----+-------+
#| age|   name|
#+----+-------+
#+null|Jackson|
#|30| Martin|
#|1
9| Melvin|
#+----|-------|
您需要从某个表中选择所有列,例如people,并使用 Spark 对象,您将输入一个非常标准的 SQL 语句,这将表现一个 SQL 结果,就像您从正常的 SQL 实现中所期望的那样。
如今让我们看看数据集和数据框。数据集是分布式数据聚集。它是在 Spark 1
.6 中添加的一个接口,提供了 RDD 的优势。另一方面,数据框对于那些使用过 pandas 或 R 的人来说非常熟悉。数据框只是一个组织成命名列的数据集,雷同于关系数据库或 Python 中的数据框。数据集和数据框之间的重要区别在于数据框有列名。可以想象,这对于呆板学习工作和输入到诸如 sc

ikit-learn 之类的东西非常方便。
让我们看看如何使用数据框。以下代码片断是数据框的一个快速示例&#xff1

a;
# spark is an existing SparkSession
df &#61
; spark.read.json("examples/src/main/resources/people.json")
# Displays the content of the DataFrame to stdout
df.show()

#+----+-------+
#| age|   name|
#+----+-------+
#+null|Jackson|
#|30| Martin|
#|1
9| Melvin|
#+----|-------|
与 pandas 或 R 一样,read.json答应我们从 JSON 文件中输入一些数据,而df.show以雷同于 pandas 的方式表现数据框的内容。
正如我们所知,MLlib 用于使呆板学习变得可扩展和简朴。MLlib 答应您实行常见的呆板学习任务,例如特征化&#xff1

b;创建管道&#xff1

b;保存和加载算法、模型和管道&#xff1

b;以及一些实用程序,例如线性代数、统计和数据处理。另一件事需要留意的是,Spark 和 RDD 几乎是不可分割的概念。假如您对 Spark 的重要用例是呆板学习,Spark 如今实际上鼓励您使用基于数据框的 MLlib API,这对我们来说非常有益,因为我们已经熟悉 pandas,这意味着平稳过渡到 Spark。
在下一节中,我们将看到如何在 Windows 上设置 Spark,并设置 PySpark 作为接口。
在 Windows 上设置 Spark 和 PySpark

完成以下步骤,在 Windows 计算机上安装 PySpark&#xff1

a;
[list=1
]
[*] 从github.com/bmatzelle/gow/releases/download/v0.8.0/Gow-0.8.0.exe下载Gnu on Windows(GOW)。
[*] GOW 答应在 Windows 上使用 Linux 命令。我们可以使用以下命令来查看通过安装 GOW 答应的根本 Linux 命令&#xff1

a;
gow --list
这会产生以下输出&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Ffa1
45c7d-1
5ef-487b-8867-4a1
b54fdf2
bb.png&pos_id&#61
;img-bJt7eM6e-1
721
40589261
6
[list=1
]
[*] 下载并安装 Anaconda。假如需要资助,可以参考以下教程&#xff1

a;medium.com/@GalarnykMichael/install-python-on-windows-anaconda-c63c7c3d1
444。
[*] 关闭先前的命令行,打开一个新的命令行。
[*] 转到 Apache Spark 网站(spark.apache.org/)。
[*] 要下载 Spark,请从下拉菜单中选择以下内容&#xff1

a;


[*] 最近的 Spark 版本
[*] 适当的软件包类型
以下屏幕截图表现了 Apache Spark 的下载页面&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F6ed1
79f0-ad5c-4927-a36f-d43a63b2c7b8.png&pos_id&#61
;img-kg0bhCSc-1
721
40589261
7
[list=1
]
[*] 然后,下载 Spark。下载完成后,将文件移动到您想要解压缩的文件夹中。
[*] 您可以手动解压缩,也可以使用以下命令&#xff1

a;
gzip -d spark-2.1
.0-bin-hadoop2.7.tgz tar xvf spark-2.1
.0-bin-hadoop2.7.tar
[list=1
]
[*]如今,使用以下命令将winutils.exe下载到您的spark-2.1
.0-bin-hadoop2.7\bin文件夹中&#xff1

a;
curl -k -L -o winutils.exe https://github.com/steveloughran/winutils/blob/master/hadoop-2.6.0/bin/winutils.exe?raw&#61
;true
[list=1
]
[*]确保您的计算机上已安装 Java。您可以使用以下命令查看 Java 版本&#xff1

a;
java --version
这会产生以下输出&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Ff08c68fa-631
b-4c66-984b-f63e77052d5d.png&pos_id&#61
;img-wVMZWfVC-1
721
40589261
7
[list=1
]
[*]使用以下命令查抄 Python 版本&#xff1

a;
python --version
这会产生以下输出&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F42925ce3-f91
e-40dd-be1
5-3be663c8e81
8.png&pos_id&#61
;img-DcvK1
TeL-1
721
40589261
7
[list=1
]
[*]让我们编辑我们的情况变量,这样我们可以在任何目次中打开 Spark,如下所示&#xff1

a;
setx SPARK_HOME C:\opt\spark\spark-2.1
.0-bin-hadoop2.7
setx HADOOP_HOME C:\opt\spark\spark-2.1
.0-bin-hadoop2.7
setx PYSPARK_DRIVER_PYTHON ipython
setx PYSPARK_DRIVER_PYTHON_OPTS notebook
将C:\opt\spark\spark-2.1
.0-bin-hadoop2.7\bin添加到你的路径中。
[list=1
]
[*]关闭终端,打开一个新的终端,并输入以下命令&#xff1

a;
--master local
PYSPARK_DRIVER_PYTHON和PYSPARK_DRIVER_PYTHON_OPTS参数用于在 Jupyter Notebook 中启动 PySpark shell。--master参数用于设置主节点地址。
[list=1
]
[*]接下来要做的是在bin文件夹中运行 PySpark 命令&#xff1

a;
.\bin\pyspark
这将产生以下输出&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F6e33e968-01
1
e-4439-961
6-2457bc36493d.png&pos_id&#61
;img-kIlkBhiq-1
721
40589261
8
Spark 和 PySpark 中的焦点概念

如今让我们来看看 Spark 和 PySpark 中的以下焦点概念&#xff1

a;


[*] SparkContext
[*] SparkConf
[*] Spark shell
SparkContext

SparkContext 是 Spark 中的一个对象或概念。它是一个大数据分析引擎,答应你以编程方式利用 Spark 的强盛功能。
当你有大量数据无法放入本地呆板或条记本电脑时,Spark 的强盛之处就显现出来了,因此你需要两台或更多计算机来处理它。在处理数据的同时,你还需要保持处理速率。我们不但希望数据在几台计算机上进行计算,还希望计算是并行的。最后,你希望这个计算看起来像是一个单一的计算。
让我们考虑一个例子,我们有一个包含 5000 万个名字的大型接洽人数据库,我们可能想从每个接洽人中提取第一个名字。显然,假如每个名字都嵌入在一个更大的接洽人对象中,将 5000 万个名字放入本地内存中是困难的。这就是 Spark 发挥作用的地方。Spark 答应你给它一个大数据文件,并将资助处理和上传这个数据文件,同时为你处理在这个数据上进行的所有操作。这种本领由 Spark 的集群管理器管理,如下图所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fde3d8722-4e52-4873-aa4c-21
6c7dbc627c.png&pos_id&#61
;img-QF81
JA5h-1
721
40589261
8
集群管理器管理多个工作节点&#xff1

b;可能有 2 个、3 个,乃至 1
00
个。关键是 Spark 的技术有助于管理这个工作节点集群,你需要一种方法来控制集群的举动,并在工作节点之间传递数据。
SparkContext 让你可以像使用 Python 对象一样使用 Spark 集群管理器的功能。因此,有了SparkContext,你可以传递作业和资源,安排任务,并完成从SparkContext到Spark 集群管理器的下游任务,然后Spark 集群管理器完成计算后将结果带返来。
让我们看看这在实践中是什么样子,以及如何设置 SparkContext&#xff1

a;
[list=1
]
[*] 起首,我们需要导入SparkContext。
[*] 创建一个新对象,将其赋给变量sc

,代表使用SparkContext构造函数的 SparkContext。
[*] 在SparkContext构造函数中,传递一个local上下文。在这种情况下,我们正在研究PySpark的实际操作,如下所示&#xff1

a;
from pyspark import SparkContext
sc

&#61
; SparkContext('local', 'hands on PySpark')
[list=1
]
[*]一旦我们建立了这一点,我们只需要使用sc

作为我们 Spark 操作的入口点,就像下面的代码片断中所演示的那样&#xff1

a;
visitors &#61
; [1
0, 3, 35, 25, 41
, 9, 29] df_visitors &#61
; sc

.parallelize(visitors) df_visitors_yearly &#61
; df_visitors.map(lambda x: x*365).collect() print(df_visitors_yearly)
让我们举个例子&#xff1

b;假如我们要分析我们服装店的虚拟数据集的访客数量,我们可能有一个表现每天访客数量的visitors列表。然后,我们可以创建一个 DataFrame 的并行版本,调用sc

.parallelize(visitors),并输入visitors数据集。df_visitors然后为我们创建了一个访客的 DataFrame。然后,我们可以映射一个函数&#xff1

b;例如,通过映射一个lambda函数,将每日数字(x)乘以365,即一年中的天数,将其推断为一年的数字。然后,我们调用collect()函数,以确保 Spark 实行这个lambda调用。最后,我们打印出df_visitors_yearly。如今,我们让 Spark 在幕后处理我们的虚拟数据的计算,而这只是一个 Python 操作。
Spark shell

我们将返回到我们的 Spark 文件夹,即spark-2.3.2-bin-hadoop2.7,然后通过输入.\bin\pyspark
来启动我们的 PySpark 二进制文件。
我们可以看到我们已经在以下截图中启动了一个带有 Spark 的 shell 会话&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fba96adf0-562b-47ec-9924-986c1
4b081
56.png&pos_id&#61
;img-DwjXJcsX-1
721
40589261
8
如今,Spark 对我们来说是一个spark变量。让我们在 Spark 中实验一件简朴的事情。起重要做的是加载一个随机文件。在每个 Spark 安装中,都有一个README.md的 markdown 文件,以是让我们将其加载到内存中,如下所示&#xff1

a;
text_file &#61
; spark.read.text("README.md")
假如我们使用spark.read.text然后输入README.md,我们会得到一些警告,但如今我们不必太担心这些,因为我们将在稍后看到如何办理这些问题。这里的重要问题是我们可以使用 Python 语法来访问 Spark。
我们在这里所做的是将README.md作为spark读取的文本数据放入 Spark 中,然后我们可以使用text_file.count()
来让 Spark 计算我们的文本文件中有多少个字符,如下所示&#xff1

a;
text_file.count()
从中,我们得到以下输出&#xff1

a;
1
03
我们还可以通过以下方式查看第一行是什么&#xff1

a;
text_file.first()
我们将得到以下输出&#xff1

a;
Row(value&#61
;'# Apache Spark')
如今,我们可以通过以下方式计算包含单词Spark的行数&#xff1

a;
lines_with_spark &#61
; text_file.filter(text_file.value.contains("Spark"))
在这里,我们使用filter()函数过滤了行,并在filter()函数内部指定了text_file_value.contains包含单词"Spark",然后将这些结果放入了lines_with_spark变量中。
我们可以修改上述命令,简朴地添加.count(),如下所示&#xff1

a;
text_file.filter(text_file.value.contains("Spark")).count()
如今我们将得到以下输出&#xff1

a;
20
我们可以看到文本文件中有20
行包含单词Spark。这只是一个简朴的例子,展示了我们如何使用 Spark shell。
SparkConf

SparkConf 答应我们配置 Spark 应用程序。它将各种 Spark 参数设置为键值对,通常会使用SparkConf()构造函数创建一个SparkConf对象,然后从spark.*底层 Java 系统中加载值。
有一些有用的函数&#xff1

b;例如,我们可以使用sets()函数来设置配置属性。我们可以使用setMaster()函数来设置要毗连的主 URL。我们可以使用setAppName()函数来设置应用程序名称,并使用setSparkHome()来设置 Spark 将安装在工作节点上的路径。
您可以在spark.apache.org/docs/0.9.0/api/pyspark/pysaprk.conf.SparkConf-class.html相识更多关于 SparkConf 的信息。
择要

在本章中,我们学习了 Spark 和 PySpark 中的焦点概念。我们学习了在 Windows 上设置 Spark 和使用 PySpark。我们还介绍了 Spark 的三大支柱,即 SparkContext、Spark shell 和 SparkConf。
在下一章中,我们将学习如何使用 RDD 将大数据导入 Spark 情况。
第二章&#xff1

a;使用 RDD 将大数据导入 Spark 情况

重要是,本章将简要介绍如何使用弹性分布式数据集(RDDs)将大数据导入 Spark 情况。我们将使用各种工具来与和修改这些数据,以便提取有用的见解。我们将起首将数据加载到 Spark RDD 中,然后使用 Spark RDD 进行并行化。
在本章中,我们将涵盖以下主题&#xff1

a;


[*] 将数据加载到 Spark RDD 中
[*] 使用 Spark RDD 进行并行化
[*] RDD 操作的基础知识
将数据加载到 Spark RDD 中

在本节中,我们将看看如何将数据加载到 Spark RDD 中,并将涵盖以下主题&#xff1

a;


[*] UCI 呆板学习数据库
[*] 从存储库将数据导入 Python
[*] 将数据导入 Spark
让我们起首概述一下 UCI 呆板学习数据库。
UCI 呆板学习库

我们可以通过导航到archive.ics.uci.edu/ml/来访问 UCI 呆板学习库。那么,UCI 呆板学习库是什么&#xff1

f;UCI 代表加州大学尔湾分校呆板学习库,它是一个非常有用的资源,可以获取用于呆板学习的开源和免费数据集。只管 PySpark 的重要问题或办理方案与呆板学习无关,但我们可以利用这个机会获取资助我们测试 PySpark 功能的大型数据集。
让我们来看一下 KDD Cup 1
999 数据集,我们将下载,然后将整个数据集加载到 PySpark 中。
将数据从存储库加载到 Spark

我们可以按照以下步骤下载数据集并将其加载到 PySpark 中&#xff1

a;
[list=1
]
[*] 点击数据文件夹。
[*] 您将被重定向到一个包含各种文件的文件夹,如下所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fe7fb27a2-1
61
d-4d0a-bddf-1
95520
6aab1
d.png&pos_id&#61
;img-beG9Rwbf-1
721
40589261
8
您可以看到有 kddcup.data.gz,另有 kddcup.data_1
0_percent.gz 中的 1
0%数据。我们将使用食品数据集。要使用食品数据集,右键单击 kddcup.data.gz,选择复制链接地址,然后返回到 PySpark 控制台并导入数据。
让我们看看如何使用以下步骤&#xff1

a;
[list=1
]
[*]启动 PySpark 后,我们需要做的第一件事是导入urllib,这是一个答应我们与互联网上的资源进行交互的库,如下所示&#xff1

a;
import urllib.request
[list=1
]
[*]接下来要做的是使用这个request库从互联网上拉取一些资源,如下面的代码所示&#xff1

a;
f &#61
; urllib.request.urlretrieve("https://archive.ics.uci.edu/ml/machine-learning-databases/kddcup99-mld/kddcup.data.gz"),"kddcup.data.gz"
这个命令将需要一些时间来处理。一旦文件被下载,我们可以看到 Python 已经返回,控制台是活动的。
[list=1
]
[*]接下来,使用SparkContext加载这个。以是,在 Python 中,SparkContext被实例化或对象化为sc

变量,如下所示&#xff1

a;
sc

此输出如下面的代码片断所示&#xff1

a;
SparkContext
Spark UI
Version
v2.3.3
Master
local[*]
AppName
PySparkShell
将数据导入 Spark

[list=1
]
[*]接下来,使用sc

将 KDD cup 数据加载到 PySpark 中,如下面的命令所示&#xff1

a;
raw_data
&#61
; sc

.textFile("./kddcup.data.gz") [list=1
]
[*]在下面的命令中,我们可以看到原始数据如今在raw_data
变量中&#xff1

a;
raw_data
此输出如下面的代码片断所示&#xff1

a;
./kddcup.data,gz MapPartitionsRDD at textFile at NativeMethodAccessorImpl.java:0
假如我们输入raw_data
变量,它会给我们关于kddcup.data.gz的详细信息,此中包含数据文件的原始数据,并告诉我们关于MapPartitionsRDD。
如今我们知道如何将数据加载到 Spark 中,让我们学习一下如何使用 Spark RDD 进行并行化。
使用 Spark RDD 进行并行化

如今我们知道如何在从互联网接收的文本文件中创建 RDD,我们可以看一种差别的创建这个 RDD 的方法。让我们讨论一下如何使用我们的 Spark RDD 进行并行化。
在这一部门,我们将涵盖以下主题&#xff1

a;


[*] 什么是并行化&#xff1

f;
[*] 我们如何将 Spark RDD 并行化&#xff1

f;
让我们从并行化开始。
什么是并行化&#xff1

f;

相识 Spark 或任何语言的最佳方法是查看文档。假如我们查看 Spark 的文档,它清楚地分析,对于我们上次使用的textFile函数,它从 HDFS 读取文本文件。
另一方面,假如我们看一下parallelize的定义,我们可以看到这是通过分发本地 Scala 聚集来创建 RDD。
使用parallelize创建 RDD 和使用textFile创建 RDD 之间的重要区别在于数据的来源。
让我们看看这是如何实际工作的。让我们回到之前离开的 PySpark 安装屏幕。因此,我们导入了urllib,我们使用urllib.request从互联网检索一些数据,然后我们使用SparkContext和textFile将这些数据加载到 Spark 中。另一种方法是使用parallelize。
让我们看看我们可以如何做到这一点。让我们起首假设我们的数据已经在 Python 中,因此,为了演示目的,我们将创建一个包含一百个数字的 Python 列表如下&#xff1

a;
a &#61
; range(1
00
)
a
这给我们以下输出&#xff1

a;
range(0, 1
00
)
例如,假如我们看一下a,它只是一个包含 1
00
个数字的列表。假如我们将其转换为list,它将表现我们的 1
00
个数字的列表&#xff1

a;
list (a)
这给我们以下输出&#xff1

a;
[0, 1
, 2, 3, 4, 5, 6, 7, 8, 9, 1
0, 1
1
, 1
2, 1
3, 1
4, 1
5, 1
6, 1
7, 1
8, 1
9, 20
, 21
, 22, 23, 24, 25, 26, 27,... 以下命令向我们展示了如何将其转换为 RDD&#xff1

a;
list_rdd
&#61
; sc

.parallelize(a) 假如我们看一下list_rdd
包含什么,我们可以看到它是PythonRDD.sc

ala:52,因此,这告诉我们 Scala 支持的 PySpark 实例已经辨认出这是一个由 Python 创建的 RDD,如下所示&#xff1

a;
list_rdd
这给我们以下输出&#xff1

a;
PythonRDD at RDD at PythonRDD.sc

ala:52 如今,让我们看看我们可以用这个列表做什么。我们可以做的第一件事是通过以下命令计算list_rdd
中有多少元素&#xff1

a;
list_rdd
.count() 这给我们以下输出&#xff1

a;
1
00
我们可以看到list_rdd
计数为 1
00
。假如我们再次运行它而不切入结果,我们实际上可以看到,由于 Scala 在遍历 RDD 时是实时运行的,它比只运行a的长度要慢,后者是瞬时的。
然而,RDD 需要一些时间,因为它需要时间来遍历列表的并行化版本。因此,在小规模的情况下,只有一百个数字,可能没有这种衡量非常有资助,但是对于更大量的数据和数据元素的更大个体大小,这将更有意义。
我们还可以从列表中取任意数量的元素,如下所示&#xff1

a;
list_rdd
.take(1
0) 这给我们以下输出&#xff1

a;
[0, 1
, 2, 3, 4, 5, 6, 7, 8, 9]
当我们运行上述命令时,我们可以看到 PySpark 在返回列表的前十个元素之前进行了一些计算。请留意,所有这些如今都由 PySpark 支持,并且我们正在使用 Spark 的功能来操作这个包含 1
00
个项目的列表。
如今让我们在list_rdd
中使用reduce函数,或者在 RDDs 中一般使用,来演示我们可以用 PySpark 的 RDDs 做什么。我们将两个参数函数应用为匿名的lambda函数到reduce调用如下&#xff1

a;
list_rdd
.reduce(lambda a, b: a+b) 在这里,lambda接受两个参数a和b。它简朴地将这两个数字相加,因此a+b,并返回输出。通过RDD的reduce调用,我们可以依次将 RDD 列表的前两个数字相加,返回结果,然后将第三个数字添加到结果中,依此类推。因此,最终,通过使用reduce,您可以将所有 1
00
个数字添加到相同的结果中。
如今,在通过分布式数据库进行一些工作之后,我们如今可以看到,从0到99的数字相加得到4950,并且所有这些都是使用 PySpark 的 RDD 方法完成的。您可能会从 MapReduce 这个术语中认出这个函数,确实,它就是这样。
我们刚刚学习了在 PySpark 中并行化是什么,以及我们如何可以并行化 Spark RDDs。这实际上相当于我们创建 RDDs 的另一种方式,对我们非常有用。如今,让我们来看一些 RDD 操作的基础知识。
RDD 操作的基础知识

如今让我们来看一些 RDD 操作的基础知识。相识某个功能的最佳方法是查看文档,以便我们可以严酷理解函数的实行方式。
这黑白常重要的缘故原由是文档是函数定义和设计用途的黄金来源。通过阅读文档,我们确保我们在理解上尽可能靠近源头。相关文档的链接是spark.apache.org/docs/latest/rdd-programming-guide.html。
让我们从map函数开始。map函数通过将f函数应用于此 RDD 的每个元向来返回一个 RDD。换句话说,它的工作方式与我们在 Python 中看到的map函数相同。另一方面,filter函数返回一个仅包含满意谓词的元素的新 RDD,该谓词是一个布尔值,通常由输入filter函数的f函数返回。同样,这与 Python 中的filter函数非常相似。最后,collect()函数返回一个包含此 RDD 中所有元素的列表。这就是我以为阅读文档真正发光的地方,当我们看到这样的分析时。假如你只是在谷歌搜刮这个,这种情况永远不会出如今 Stack Overflow 或博客文章中。
因此,我们说collect()只有在预期结果数组很小的情况下才应该使用,因为所有数据都加载在驱动程序的内存中。这意味着,假如我们追念一下第一章,安装 PySpark 并设置开辟情况,Spark 非常出色,因为它可以在许多差别的独立呆板上网络和并行化数据,并且可以从一个终端透明地操作。collect()的分析是,假如我们调用collect(),则生成的 RDD 将完全加载到驱动程序的内存中,在这种情况下,我们将失去在 Spark 实例集群中分发数据的好处。
如今我们知道了所有这些,让我们看看如何实际将这三个函数应用于我们的数据。因此,返回到 PySpark 终端&#xff1

b;我们已经将原始数据作为文本文件加载,就像我们在之前的章节中看到的那样。
我们将编写一个filter函数来查找所有包含单词normal的行,指示 RDD 数据,如下面的屏幕截图所示&#xff1

a;
contains_normal &#61
; raw_data
.filter(lambda line: "normal." in line) 让我们分析一下这意味着什么。起首,我们正在为 RDD 原始数据调用filter函数,并且我们正在向其提供一个匿名的lambda函数,该函数接受一个line参数并返回谓词,正如我们在文档中所读到的,关于单词normal是否存在于该行中。此刻,正如我们在之前的章节中讨论的那样,我们实际上还没有计算这个filter操作。我们需要做的是调用一个实际整合数据并迫使 Spark 计算某些内容的函数。在这种情况下,我们可以依赖contains_normal,就像下面的屏幕截图中所示的那样&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F67a5b61
5-fcae-4356-99da-0bf6b0e22232.png&pos_id&#61
;img-MFXqjlq3-1
721
40589261
8
您可以看到,在原始数据中,包含单词normal的行数超过了 970,000 行。要使用filter函数,我们提供了一个lambda函数,并使用一个整合函数,比如counts,来强制 Spark 计算和计算底层 DataFrame 中的数据。
对于第二个例子,我们将使用 map。由于我们下载了 KDD 杯数据,我们知道它是一个逗号分隔的值文件,因此,我们很轻易做的一件事是通过两个逗号拆分每一行,如下所示&#xff1

a;
split_file &#61
; raw_data
.map(lambda line: line.split(",")) 让我们分析一下发生了什么。我们在raw_data
上调用map函数。我们向它提供了一个名为line的匿名lambda函数,在这个函数中,我们使用,来分割line函数。结果是一个分割文件。如今,这里真正发挥了 Spark 的力量。追念一下,在contains_normal.过滤器中,当我们调用一个强制 Spark 计算count的函数时,需要几分钟才气得出精确的结果。假如我们实行map函数,它会产生相同的结果,因为我们需要对数百万行数据进行映射。因此,快速预览我们的映射函数是否精确运行的一种方法是,我们可以将几行材料化而不是整个文件。
为了做到这一点,我们可以使用之前使用过的take函数,如下面的截图所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fe99a6e8a-4409-4b4e-b1
e1
-858e278abc2d.png&pos_id&#61
;img-vf6papdl-1
721
40589261
9
这可能需要几秒钟,因为我们只取了五行,这是我们的分割,实际上相当轻易管理。假如我们查看这个样本输出,我们可以理解我们的map函数已经乐成创建。我们可以做的最后一件事是在原始数据上调用collect(),如下所示&#xff1

a;
raw_data
.collect() 这旨在将 Spark 的 RDD 数据结构中的所有原始数据移动到内存中。
总结

在本章中,我们学习了如何在 Spark RDD 上加载数据,还介绍了 Spark RDD 的并行化。在加载数据之前,我们简要概述了 UCI 呆板学习存储库。我们概述了根本的 RDD 操作,并查抄了官方文档中的函数。
在下一章中,我们将介绍大数据洗濯和数据整理。
第三章&#xff1

a;使用 Spark 条记本进行大数据洗濯和整理

在本章中,我们将学习使用 Spark 条记本进行大数据洗濯和整理。我们还将看看在条记本应用程序上使用 Spark 如何有用地使用 RDD。我们将使用 Spark 条记本快速迭代想法,并进行抽样/过滤 RDD 以挑选出相关数据点。我们还将学习如何拆分数据集并使用聚集操作创建新的组合。
在本章中,我们将讨论以下主题&#xff1

a;


[*] 使用 Spark 条记本快速迭代想法
[*] 对 RDD 进行抽样/过滤以挑选出相关数据点
[*] 拆分数据集并创建一些新的组合
使用 Spark 条记本快速迭代想法

在这一部门,我们将答复以下问题&#xff1

a;


[*] 什么是 Spark 条记本&#xff1

f;
[*] 如何启动 Spark 条记本&#xff1

f;
[*] 如何使用 Spark 条记本&#xff1

f;
让我们从为 Spark 设置雷同 Jupyter Notebook 的情况开始。Spark 条记本只是一个使用 Scala 和 Spark 的交互式和反应式数据科学情况。
假如我们查看 GitHub 页面(github.com/spark-notebook/spark-notebook),我们会发现条记本的功能实际上非常简朴,如下截图所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fedaecfa4-9892-4f8e-9831
-a38e1
520
b220
.png&pos_id&#61
;img-ZEqMD51
t-1
721
40589261
9
假如我们看一下 Spark 条记本,我们会发现它们看起来非常像 Python 开辟人员使用的 Jupyter 条记本。您可以在文本框中输入一些代码,然后在文本框下方实行代码,这与条记本格式雷同。这使我们能够使用 Apache Spark 和大数据生态系统实行可重现的分析。
因此,我们可以直接使用 Spark 条记本,我们只需要转到 Spark 条记本网站,然后点击“快速启动”即可启动条记本,如下截图所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F1
0274ddd-d867-401
e-b359-00846d61
a5b2.png&pos_id&#61
;img-NbOidG8J-1
721
40589261
9
我们需要确保我们正在运行 Java 7。我们可以看到设置步骤也在文档中提到,如下截图所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F87e2fc62-6f8d-45f8-a8bf-21
c574afb867.png&pos_id&#61
;img-GB1
1
NN9S-1
721
40589261
9
Spark 条记本的重要网站是spark-notebook.io,在那里我们可以看到许多选项。以下截图表现了此中一些选项&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F851
8e8f2
-1
51
3-4569-822d-39bc6d0f881
4.png&pos_id&#61
;img-2wTbQHWd-1
721
40589261
9
我们可以下载 TAR 文件并解压缩。您可以使用 Spark 条记本,但是在本书中我们将使用 Jupyter Notebook。因此,回到 Jupyter 情况,我们可以查看 PySpark 附带的代码文件。在第三章条记本中,我们已经包含了一个方便的方法来设置情况变量,以使 PySpark 与 Jupyter 一起工作,如下截图所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fcb54d381
-06e9-41
f2
-960c-41
21
0cd0e36f.png&pos_id&#61
;img-cAto0MmE-1
721
405892620

起首,我们需要在我们的情况中创建两个新的情况变量。假如您使用 Linux,可以使用 Bash RC。假如您使用 Windows,您只需要更改和编辑系统情况变量。有多个在线教程可以资助您完成此操作。我们要做的是编辑或包含PYSPARK_DRIVER_PYTHON变量,并将其指向您的 Jupyter Notebook 安装位置。假如您使用 Anaconda,可能会指向 Anaconda Jupyter Bash 文件。由于我们使用的是 WinPython,我已将其指向了我的 WinPython Jupyter Notebook Bash 文件。我们要导出的第二个情况变量只是PYSPARK_DRIVER_PYTHON_OPTS。
此中一个建议是,我们在选项中包括条记本文件夹和条记本应用程序,要求它不要在欣赏器中打开,并告诉它要绑定到哪个端口。 在实践中,假如您使用的是 Windows 和 WinPython 情况,那么您实际上不需要在这里使用这行代码,您可以直接跳过它。 完成后,只需从命令行重新启动 PySpark。 发生的情况是,与我们以前看到的控制台差别,它直接启动到 Jupyter Notebook 实例,并且我们可以像在 Jupyter Notebook 中一样使用 Spark 和 SparkContext 变量。 因此,让我们测试一下,如下所示&#xff1

a;
sc

我们立刻获得了我们的SparkContext,告诉我们 Spark 的版本是2.3.3,我们的Master是local,AppName是 Python SparkShell(PySparkShell),如下面的代码片断所示&#xff1

a;
SparkContext
Spark UI
Version
v2.3.3
Master
local[*]
AppName
PySparkShell
因此,如今我们知道了如何在 Jupyter 中创建雷同条记本的情况。 在下一节中,我们将看一下对 RDD 进行抽样和过滤以挑选出相关数据点。
抽样/过滤 RDD 以挑选出相关数据点

在本节中,我们将查看对 RDD 进行抽样和过滤以挑选出相关数据点。 这是一个非常强盛的概念,它使我们能够规避大数据的限定,并在特定样本上实行我们的计算。
如今让我们查抄抽样不但加速了我们的计算,而且还给了我们对我们试图计算的统计量的良好近似。 为此,我们起首导入time库,如下所示&#xff1

a;
from time import time
我们接下来要做的是查看 KDD 数据库中包含单词normal的行或数据点&#xff1

a;
raw_data
&#61
; sc

.textFile("./kdd.data.gz") 我们需要创建raw_data
的样本。 我们将样本存储到sample变量中,我们正在从raw_data
中进行无更换的抽样。 我们正在抽样数据的 1
0%,并且我们提供42作为我们的随机种子&#xff1

a;
sampled &#61
; raw_data
.sample(False, 0.1
, 42) 接下来要做的是链接一些map和filter函数,就像我们通常处理未抽样数据集一样&#xff1

a;
contains_normal_sample &#61
; sampled.map(lambda x: x.split(",")).filter(lambda x: "normal" in x)
接下来,我们需要计算在样本中计算行数需要多长时间&#xff1

a;
t0 &#61
; time()
num_sampled &#61
; contains_normal_sample.count()

duration
&#61
; time() - t0
我们在这里发布计数声明。 正如您从上一节中所知,这将触发 PySpark 中contains_normal_sample中定义的所有计算,并且我们记录了样本计数发生之前的时间。 我们还记录了样本计数发生后的时间,这样我们就可以看到在查看样本时需要多长时间。 一旦完成了这一点,让我们来看看以下代码片断中duration
连续了多长时间&#xff1

a;
duration
输出将如下所示&#xff1

a;
23.724565505981
445
我们花了 23 秒来运行这个操作,占数据的 1
0%。 如今,让我们看看假如我们在所有数据上运行相同的转换会发生什么&#xff1

a;
contains_normal &#61
; raw_data
.map(lambda x: x.split(",")).filter(lambda x: "normal" in x)t0 &#61
; time()num_sampled &#61
; contains_normal.count()duration
&#61
; time() - t0 让我们再次看一下duration
&#xff1

a;
duration
这将提供以下输出&#xff1

a;
36.51
56509876251
2
有一个小差别,因为我们正在比力36.5秒和23.7秒。 但是,随着数据集变得更加多样化,以及您处理的数据量变得更加复杂,这种差别会变得更大。 这此中的好处是,假如您通常处理大数据,使用数据的小样本验证您的答案是否合理可以资助您更早地捕获错误。
最后要看的是我们如何使用takeSample。 我们只需要使用以下代码&#xff1

a;
data_in_memory &#61
; raw_data
.takeSample(False, 1
0, 42) 正如我们之前学到的,当我们呈现新函数时,我们调用takeSample,它将给我们1
0个具有随机种子42的项目,如今我们将其放入内存。 如今这些数据在内存中,我们可以使用本机 Python 方法调用相同的map和filter函数,如下所示&#xff1

a;
contains_normal_py &#61
;
len(contains_normal_py)
输出将如下所示&#xff1

a;
1
我们如今通过将data_in_memory带入来计算我们的contains_normal函数。 这很好地分析了 PySpark 的强盛之处。
我们最初抽取了 1
0,000 个数据点的样本,这导致了呆板崩溃。 因此,在这里,我们将取这十个数据点,看看它是否包含单词normal。
我们可以看到在前一个代码块中计算已经完成,它比在 PySpark 中进行计算耗费了更长的时间并且使用了更多的内存。这就是为什么我们使用 Spark,因为 Spark 答应我们并行处理任何大型数据集,并且以并行方式操作它,这意味着我们可以用更少的内存和更少的时间做更多的事情。在下一节中,我们将讨论拆分数据集并使用聚集操作创建新的组合。
拆分数据集并创建一些新的组合

在本节中,我们将看看如何拆分数据集并使用聚集操作创建新的组合。我们将学习特殊是减法和笛卡尔积。
让我们回到我们一直在查看包含单词normal的数据会合的行的 Jupyter 条记本的第三章。让我们实验获取不包含单词normal的所有行。一种方法是使用filter函数查看不包含normal的行。但是,在 PySpark 中我们可以使用一些差别的东西&#xff1

a;一个名为subtract的函数来取整个数据集并减去包含单词normal的数据。让我们看看以下片断&#xff1

a;
normal_sample &#61
; sampled.filter(lambda line: "normal." in line) 然后我们可以通过从整个样本中减去normal样本来获得不包含单词normal的交互或数据点如下&#xff1

a;
non_normal_sample &#61
; sampled.subtract(normal_sample) 我们取normal样本,然后从整个样本中减去它,这是整个数据集的 1
0%。让我们按如下方式发出一些计数&#xff1

a;
sampled.count()
这将为我们提供以下输出&#xff1

a;
490705
正如你所看到的,数据集的 1
0%给我们490705
个数据点,此中有一些包含单词normal的数据点。要找出它的计数,写下以下代码&#xff1

a;
normal_sample.count()
这将为我们提供以下输出&#xff1

a;
97404
以是,这里有97404
个数据点。假如我们计算正常样本,因为我们只是从另一个样本中减去一个样本,计数应该大约略低于 400,000 个数据点,因为我们有 490,000 个数据点减去 97,000 个数据点,这应该导致大约 390,000。让我们看看使用以下代码片断会发生什么&#xff1

a;
non_normal_sample.count()

这将为我们提供以下输出&#xff1

a;
393301

正如预期的那样,它返回了393301

的值,这验证了我们的假设,即减去包含normal的数据点会给我们所有非正常的数据点。
如今让我们讨论另一个名为cartesian的函数。这答应我们给出两个差别特征的差别值之间的所有组合。让我们看看以下代码片断中这是如何工作的&#xff1

a;
feature_1
&#61
; sampled.map(lambda line: line.split(",")).map(lambda features: features[1
]).distinct() 在这里,我们使用,来拆分line函数。因此,我们将拆分逗号分隔的值 - 对于拆分后得到的所有特征,我们取第一个特征,并找到该列的所有差别值。我们可以重复这个过程来获取第二个特征,如下所示&#xff1

a;
feature_2 &#61
; sampled.map(lambda line: line.split(",")).map(lambda features: features).distinct() 因此,我们如今有两个特征。我们可以查看feature_1
和feature_2中的实际项目,如下所示,通过发出我们之前看到的collect()调用&#xff1

a;
f1

&#61
; feature_1
.collect()f2
&#61
; feature_2.collect() 让我们分别看一下如下&#xff1

a;
f1

这将提供以下结果&#xff1

a;
['tcp', 'udp', 'icmp']
以是,f1

有三个值&#xff1

b;让我们查抄f2
如下&#xff1

a;
f2
这将为我们提供以下输出&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fd4407ef2
-4c27-4d7a-a633-41
a1
9dd421
87.png&pos_id&#61
;img-KYpVjqpA-1
721
405892620

f2
有更多的值,我们可以使用cartesian函数网络f1

和f2
之间的所有组合如下&#xff1

a;
len(feature_1
.cartesian(feature_2).collect()) 这将为我们提供以下输出&#xff1

a;
1
98 这是我们如何使用cartesian函数找到两个特征之间的笛卡尔积。在本章中,我们看了 Spark 条记本&#xff1

b;抽样、过滤和拆分数据集&#xff1

b;以及使用聚集操作创建新的组合。
择要

在本章中,我们看了 Spark 条记本进行快速迭代。然后我们使用抽样或过滤来挑选出相关的数据点。我们还学会了如何拆分数据集并使用聚集操作创建新的组合。
在下一章中,我们将介绍将数据聚合和汇总为有用的报告。
第四章&#xff1

a;将数据聚合和汇总为有用的报告

在本章中,我们将学习如何将数据聚合和汇总为有用的报告。我们将学习如何使用 map 和 reduce 函数计算匀称值,实行更快的匀称计算,并使用键值对数据点的数据透视表。
本章中,我们将涵盖以下主题&#xff1

a;


[*] 使用 map 和 reduce 计算匀称值
[*] 使用聚合进行更快的匀称计算
[*] 使用键值对数据点进行数据透视表
使用 map 和 reduce 计算匀称值

在本节中,我们将答复以下三个重要问题&#xff1

a;


[*] 我们如何计算匀称值&#xff1

f;
[*] 什么是 map&#xff1

f;
[*] 什么是 reduce&#xff1

f;
您可以在spark.apache.org/docs/latest/api/python/pyspark.html?highlight&#61
;map#pyspark.RDD.map上查看文档。
map 函数接受两个参数,此中一个是可选的。map 的第一个参数是 f,它是一个应用于整个 RDD 的函数。第二个参数或参数是 preservesPartitioning 参数,默认值为 False。
假如我们查看文档,它说 map 通过将函数应用于此 RDD 的每个元向来简朴地返回一个新的 RDD,显然,此函数指的是我们输入到 map 函数本身的 f。文档中有一个非常简朴的例子,假如我们并行化一个包含三个字符 b、a 和 c 的 rdd 方法,并且我们映射一个创建每个元素的元组的函数,那么我们将创建一个包含三个元组的列表,此中原始字符放在元组的第一个元素中,整数 1
放在第二个元素中,如下所示&#xff1

a;
rdd &#61
;sc

.paralleize(["b", "a", "c"])sorted(rdd.map(lambda x: (x, 1
)).collect()) 这将给我们以下输出&#xff1

a;
[('a', 1
), ('b', 1
), ('c', 1
)] reduce 函数只接受一个参数,即 f。f 是一个将列表减少为一个数字的函数。从技术角度来看,指定的可交换和可结合的二进制运算符减少了此 RDD 的元素。
让我们使用我们一直在使用的 KDD 数据来举个例子。我们启动我们的 Jupyter Notebook 实例,它链接到一个 Spark 实例,就像我们以前做过的那样。然后我们通过从本地磁盘加载 kddcup.data.gz 文本文件来创建一个 raw_data
变量,如下所示&#xff1

a;
raw_data
&#61
; sc

.textFile("./kddcup.data.gz") 接下来要做的是将此文件拆分为 csv,然后我们将过滤包含单词 normal 的特征 41
的行&#xff1

a;
csv &#61
; raw_data
.map(lambda x: x.split(","))normal_data &#61
; csv.filter(lambda x: x[41
]&#61
;&#61
;"normal.") 然后我们使用 map 函数将这些数据转换为整数,最后,我们可以使用 reduce 函数来计算 total_duration
,然后我们可以打印 total_duration
如下&#xff1

a;
duration
&#61
; normal_data.map(lambda x: int(x))total_duration
&#61
; duration
.reduce(lambda x, y: x+y)total_duration
然后我们将得到以下输出&#xff1

a;
21
1
895753 接下来要做的是将 total_duration
除以数据的计数,如下所示&#xff1

a;
total_duration
/(normal_data.count())
这将给我们以下输出&#xff1

a;
21
7.8247241
671
0442 稍微计算后,我们将使用 map 和 reduce 创建两个计数。我们刚刚学会了如何使用 PySpark 计算匀称值,以及 PySpark 中的 map 和 reduce 函数是什么。
使用聚合进行更快的匀称计算

在上一节中,我们看到了如何使用 map 和 reduce 计算匀称值。如今让我们看看如何使用 aggregate 函数进行更快的匀称计算。您可以参考前一节中提到的文档。
aggregate 是一个带有三个参数的函数,此中没有一个是可选的。
第一个是 zeroValue 参数,我们在此中放入聚合结果的根本情况。
第二个参数是顺序运算符 (seqOp),它答应您在 zeroValue 之上堆叠和聚合值。您可以从 zeroValue 开始,将您的 RDD 中的值传递到 seqOp 函数中,并将其堆叠或聚合到 zeroValue 之上。
最后一个参数是combOp,表现组合操作,我们只需将通过seqOp参数聚合的zeroValue参数组合成一个值,以便我们可以使用它来完成聚合。
因此,我们正在聚合每个分区的元素,然后使用组合函数和中性零值对所有分区的结果进行聚合。在这里,我们有两件事需要留意&#xff1

a;
[list=1
]
[*] op函数答应修改t1
,但不应修改t2
[*] 第一个函数seqOp可以返回差别的结果类型U
在这种情况下,我们都需要一个操作来将T归并到U,以及一个操作来归并这两个U。
让我们去我们的 Jupyter Notebook 查抄这是如何完成的。aggregate答应我们同时计算总连续时间和计数。我们调用duration
_count函数。然后我们取normal_data并对其进行聚合。请记着,聚合有三个参数。第一个是初始值&#xff1

b;也就是零值,(0,0)。第二个是一个顺序操作,如下所示&#xff1

a;
duration
_count &#61
; duration
.aggregate( (0,0), (lambda db, new_value: (db + new_value, db[1
] + 1
))) 我们需要指定一个具有两个参数的lambda函数。第一个参数是当前的累加器,或者聚合器,或者也可以称为数据库(db)。然后,在我们的lambda函数中,我们有第二个参数new_value,或者我们在 RDD 中处理的当前值。我们只是想对数据库做精确的事情,也就是说,我们知道我们的数据库看起来像一个元组,第一个元素是连续时间的总和,第二个元素是计数。在这里,我们知道我们的数据库看起来像一个元组,连续时间的总和是第一个元素,计数是第二个元素。每当我们查看一个新值时,我们需要将新值添加到当前的运行总数中,并将1
添加到当前的运行计数中。
运行总数是第一个元素,db。然后我们只需要将1
添加到第二个元素db[1
],即计数。这是顺序操作。
每当我们得到一个new_value,如前面的代码块所示,我们只需将其添加到运行总数中。而且,因为我们已经将new_value添加到运行总数中,我们需要将计数增加1
。其次,我们需要放入组合器操作。如今,我们只需要将两个单独的数据库db1
和db2的相应元素组合如下&#xff1

a;
duration
_count &#61
; duration
.aggregate( (0,0), (lambda db, new_value: (db + new_value, db[1
] + 1
)), (lambda db1
, db2: (db1
+ db2, db1
[1
] + db2[1
]))) 由于连续时间计数是一个元组,它在第一个元素上网络了我们的总连续时间,在第二个元素上记录了我们查看的连续时间数量,计算匀称值非常简朴。我们需要将第一个元素除以第二个元素,如下所示&#xff1

a;
duration
_count/duration
_count[1
] 这将给我们以下输出&#xff1

a;
21
7.8247241
671
0442 您可以看到它返回了与我们在上一节中看到的相同的结果,这很棒。在下一节中,我们将看一下带有键值对数据点的数据透视表。
带有键值对数据点的数据透视表

数据透视表非常简朴且易于使用。我们将使用大型数据集,例如 KDD 杯数据集,并根据某些键对某些值进行分组。
例如,我们有一个包含人和他们最喜好的水果的数据集。我们想知道有多少人把苹果作为他们最喜好的水果,因此我们将根据水果将人数进行分组,这是值,而不是键。这就是数据透视表的简朴概念。
我们可以使用map函数将 KDD 数据集移动到键值对范例中。我们使用lambda函数将数据集的特征41
映射到kv键值,并将值附加如下&#xff1

a;
kv &#61
; csv.map(lambda x: (x[41
], x))kv.take(1
) 我们使用特征41
作为键,值是数据点,即x。我们可以使用take函数来获取这些转换行中的一个,以查看其外观。
如今让我们实验雷同于前面的例子。为了找出特征41
中每种数值的总连续时间,我们可以再次使用map函数,简朴地将41
特征作为我们的键。我们可以将数据点中第一个数字的浮点数作为我们的值。我们将使用reduceByKey函数来减少每个键的连续时间。
因此,reduceByKey不但仅是减少所有数据点,而是根据它们所属的键来减少连续时间数字。您可以在spark.apache.org/docs/latest/api/python/pyspark.html?highlight&#61
;map#pyspark.RDD.reduceByKey上查看文档。reduceByKey使用关联和交换的reduce函数归并每个键的值。它在将结果发送到减速器之前在每个映射器上实行本地归并,这雷同于 MapReduce 中的组合器。
reduceByKey函数只需一个参数。我们将使用lambda函数。我们取两个差别的连续时间并将它们相加,PySpark 足够聪明,可以根据键应用这个减少函数,如下所示&#xff1

a;
kv_duration
&#61
; csv.map(lambda x: (x[41
], float(x))).reduceByKey(lambda x, y: x+y)kv_duration
.collect() 结果输出如下截图所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fdc4b7020
-d1
a2-48ee-8e9f-6f1

52fefc69f.png&pos_id&#61
;img-pggffdA8-1
721
405892620

假如我们网络键值连续时间数据,我们可以看到连续时间是由出如今特征41
中的值网络的。假如我们在 Excel 中使用数据透视表,有一个方便的函数是countByKey函数,它实行的是完全相同的操作,如下所示&#xff1

a;
kv.countByKey()
这将给我们以下输出&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F0e2d8e34-d50e-447b-81
8e-d21
39cdaa51
9.png&pos_id&#61
;img-9nZ6baCP-1
721
405892620

您可以看到调用kv.countByKey()
函数与调用reduceByKey函数相同,先前是从键到连续时间的映射。
择要

在本章中,我们学习了如何使用map和reduce计算匀称值。我们还学习了使用aggregate进行更快的匀称计算。最后,我们相识到数据透视表答应我们根据特征的差别值对数据进行聚合,并且在 PySpark 中,我们可以利用reducedByKey或countByKey等方便的函数。
在下一章中,我们将学习关于 MLlib 的内容,此中涉及呆板学习,这是一个非常热门的话题。
第五章&#xff1

a;使用 MLlib 进行强盛的探索性数据分析

在本章中,我们将探索 Spark 实行回归任务的本领,使用线性回归和支持向量机等模型。我们将学习如何使用 MLlib 计算汇总统计,并使用 Pearson 和 Spearman 相关性发现数据会合的相关性。我们还将在大型数据集上测试我们的假设。
我们将涵盖以下主题&#xff1

a;


[*] 使用 MLlib 计算汇总统计
[*] 使用 Pearson 和 Spearman 方法发现相关性
[*] 在大型数据集上测试我们的假设
使用 MLlib 计算汇总统计

在本节中,我们将答复以下问题&#xff1

a;


[*] 什么是汇总统计&#xff1

f;
[*] 我们如何使用 MLlib 创建汇总统计&#xff1

f;
MLlib 是随 Spark 一起提供的呆板学习库。最近有一个新的发展,答应我们使用 Spark 的数据处理本领传输到 Spark 本身的呆板学习本领。这意味着我们不但可以使用 Spark 来摄取、网络和转换数据,还可以分析和使用它来构建 PySpark 平台上的呆板学习模型,这使我们能够拥有更无缝的可部署办理方案。
汇总统计是一个非常简朴的概念。我们熟悉某个变量的匀称值、标准差或方差。这些是数据集的汇总统计。之以是称其为汇总统计,是因为它通过某个统计量给出了某个东西的择要。例如,当我们评论数据集的匀称值时,我们正在总结数据集的一个特征,而这个特征就是匀称值。
让我们看看如何在 Spark 中计算汇总统计。关键因素在于colStats函数。colStats函数计算rdd输入的逐列汇总统计。colStats函数接受一个参数,即rdd,并答应我们使用 Spark 计算差别的汇总统计。
让我们看一下 Jupyter Notebook 中的代码(可在github.com/PacktPublishing/Hands-On-Big-Data-Analytics-with-PySpark/tree/master/Chapter05找到),在Chapter5.ipynb中的本章。我们将起首从kddcup.data.gz文本文件中网络数据,并将其传输到raw_data
变量中&#xff1

a;
raw_data
&#61
; sc

.textFile("./kddcup.data.gz") kddcup.data文件是一个逗号分隔值(CSV)文件。我们必须通过,字符拆分这些数据,并将其放入csv变量中,如下所示&#xff1

a;
csv &#61
; raw_data
.map(lambda x: x.split(",")) 让我们取数据文件的第一个特征x&#xff1

b;这个特征代表连续时间,也就是数据的方面。我们将把它转换为整数,并将其包装成列表,如下所示&#xff1

a;
duration
&#61
; csv.map(lambda x: )]) 这有助于我们对多个变量进行汇总统计,而不但仅是此中一个。要激活colStats函数,我们需要导入Statistics包,如下面的代码片断所示&#xff1

a;
from pyspark.mllib.stat import Statistics
这个Statistics包是pyspark.mllib.stat的一个子包。如今,我们需要在Statistics包中调用colStats函数,并向其提供一些数据。这里,我们评论的是数据会合的连续时间数据,并将汇总统计信息输入到summary变量中&#xff1

a;
summary &#61
; Statistics.colStats(duration
) 要访问差别的汇总统计,如匀称值、标准差等,我们可以调用summary对象的函数,并访问差别的汇总统计。例如,我们可以访问mean,由于我们的连续时间数据会合只有一个特征,我们可以通过00索引对其进行索引,然后得到数据集的匀称值,如下所示&#xff1

a;
summary.mean()
这将给我们以下输出&#xff1

a;
47.97930249928637
同样,假如我们从 Python 标准库中导入sqrt函数,我们可以创建数据会合连续时间的标准差,如下面的代码片断所示&#xff1

a;
from math import sqrt
sqrt(summary.variance())
这将给我们以下输出&#xff1

a;
707.746472305374
假如我们不使用对择要统计信息进行索引,我们可以看到summary.max()和summary.min()会返回一个数组,此中第一个元素是我们所需的择要统计信息,如下面的代码片断所示&#xff1

a;
summary.max()
array () #output
summary.min()
array()#output
使用 Pearson 和 Spearman 相关性来发现相关性

在这一部门,我们将看到在数据会合计算相关性的两种差别方法,这两种方法分别称为 Pearson 和 Spearman 相关性。
Pearson 相关性

Pearson 相关系数向我们展示了两个差别变量同时变化的程度,然后根据它们的变化程度进行调整。假如你有一个数据集,这可能是计算相关性最流行的方法之一。
Spearman 相关性

Spearman 秩相关不是内置在 PySpark 中的默认相关计算,但它非常有用。Spearman 相关系数是排名变量之间的 Pearson 相关系数。使用差别的相关性观察方法可以让我们更全面地理解相关性的工作原理。让我们看看在 PySpark 中如何计算这个。
计算 Pearson 和 Spearman 相关性

为了理解这一点,让我们假设我们正在从数据会合取出前三个数值变量。为此,我们要访问之前定义的csv变量,我们只需使用逗号(,)分割raw_data
。我们只考虑前三列是数值的特征。我们不会取包含文字的任何内容&#xff1

b;我们只对纯粹基于数字的特征感兴趣。在我们的例子中,在kddcup.data中,第一个特征的索引是0&#xff1

b;特征 5 和特征 6 的索引分别是4和5,这些是我们拥有的数值变量。我们使用lambda函数将这三个变量放入一个列表中,并将其放入metrics变量中&#xff1

a;
metrics &#61
; csv.map(lambda x: , x, x])Statistics.corr(metrics, method&#61
;"spearman") 这将给我们以下输出&#xff1

a;
array([[1
\.       ,0.01
41
9628,0.2991
8926], [0.01
41
9628,1
\.      , -0.1
6793059], [0.2991
8926, -0.1
6793059,1
\.      ]]) 在使用 MLlib 计算择要统计信息部门,我们只是将第一个特征放入一个列表中,并创建了一个长度为 1
的列表。在这里,我们将三个变量的三个量放入同一个列表中。如今,每个列表的长度都是三。
为了计算相关性,我们在metrics变量上调用corr方法,并指定method为"spearman"。PySpark 会给我们一个非常简朴的矩阵,告诉我们变量之间的相关性。在我们的例子中,metrics变量中的第三个变量比第二个变量更相关。
假如我们再次在metrics上运行corr,但指定方法为pearson,那么它会给我们 Pearson 相关性。因此,让我们看看为什么我们需要有资格称为数据科学家或呆板学习研究人员来调用这两个简朴的函数,并简朴地改变第二个参数的值。许多呆板学习和数据科学都围绕着我们对统计学的理解,对数据举动的理解,对呆板学习模型基础的理解以及它们的预测本领是如何产生的。
因此,作为一个呆板学习从业者或数据科学家,我们只是把 PySpark 当作一个大型计算器来使用。当我们使用计算器时,我们从不抱怨计算器使用简朴——究竟上,它资助我们以更直接的方式完成目标。PySpark 也是一样的情况&#xff1

b;一旦我们从数据工程转向 MLlib,我们会留意到代码变得逐渐更轻易。它试图隐藏数学的复杂性,但我们需要理解差别相关性之间的差别,也需要知道如何以及何时使用它们。
在大型数据集上测试我们的假设

在本节中,我们将研究假设检验,并学习如何使用 PySpark 测试假设。让我们看看 PySpark 中实现的一种特定类型的假设检验。这种假设检验称为 Pearson 卡方检验。卡方检验评估了两个数据集之间的差别是由偶尔因素引起的可能性有多大。
例如,假如我们有一个没有任何人流量的零售店,突然之间有了人流量,那么这是随机发生的可能性有多大,或者如今我们得到的访客程度与以前相比是否有任何统计学上显着的差别&#xff1

f;之以是称之为卡方检验,是因为测试本身参考了卡方分布。您可以参考在线文档相识更多关于卡方分布的信息。
Pearson 的卡方检验有三种变体。我们将查抄观察到的数据集是否与理论数据集分布差别。
让我们看看如何实现这一点。让我们从pyspark.mllib.linalg中导入Vectors包开始。使用这个向量,我们将创建一个存储中每天访客频率的密集向量。
假设访问频率从每小时的 0.1
3 到 0.61
,0.8,0.5,最后在星期五结束时为 0.3。因此,我们将这些访客频率放入visitors_freq变量中。由于我们使用 PySpark,我们可以很轻易地从Statistics包中运行卡方检验,我们已经导入如下&#xff1

a;
from pyspark.mllib.linalg import Vectorsvisitors_freq &#61
; Vectors.dense(0.1
3, 0.61
, 0.8, 0.5, 0.3)print(Statistics.chiSqTest(visitors_freq)) 通过运行卡方检验,visitors_freq变量为我们提供了大量有用的信息,如下截图所示&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2Fec0a248d-d599-476c-bbd7-665a504a76bc.png&pos_id&#61
;img-UA0vtYmV-1
721
405892620

前面的输出表现了卡方检验的择要。我们使用了pearson方法,在我们的 Pearson 卡方检验中有 4 个自由度,统计数据为 0.585,这意味着pValue为 0.964。这导致没有反对零假设的推定。这样,观察到的数据遵循与预期相同的分布,这意味着我们的访客实际上并没有差别。这使我们对假设检验有了很好的理解。
择要

在本章中,我们学习了择要统计信息并使用 MLlib 计算择要统计信息。我们还相识了 Pearson 和 Spearman 相关性,以及如何使用 PySpark 在数据会合发现这些相关性。最后,我们学习了一种特定的假设检验方法,称为 Pearson 卡方检验。然后,我们使用 PySpark 的假设检验函数在大型数据集上测试了我们的假设。
在下一章中,我们将学习如何在 Spark SQL 中处理大数据的结构。
第六章&#xff1

a;使用 SparkSQL 为您的大数据添加结构

在本章中,我们将学习如何使用 Spark SQL 模式操作数据框,并使用 Spark DSL 构建结构化数据操作的查询。到如今为止,我们已经学会了将大数据导入 Spark 情况使用 RDD,并对这些大数据进行多个操作。如今让我们看看如何操作我们的数据框并构建结构化数据操作的查询。
具体来说,我们将涵盖以下主题&#xff1

a;


[*] 使用 Spark SQL 模式操作数据框
[*] 使用 Spark DSL 构建查询
使用 Spark SQL 模式操作数据框

在本节中,我们将学习更多关于数据框,并学习如何使用 Spark SQL。
Spark SQL 接口非常简朴。因此,去除标签意味着我们处于无监视学习领域。别的,Spark 对聚类和降维算法有很好的支持。通过使用 Spark SQL 为大数据赋予结构,我们可以有用地办理学习问题。
让我们看一下我们将在 Jupyter Notebook 中使用的代码。为了保持一致,我们将使用相同的 KDD 杯数据&#xff1

a;
[list=1
]
[*]我们起首将textFile输入到raw_data
变量中,如下所示&#xff1

a;
raw_data
&#61
; sc

.textFile("./kddcup.data.gz") [list=1
]
[*]新的是我们从pyspark.sql中导入了两个新包&#xff1

a;


[*] Row
[*] SQLContext
[list=1
]
[*]以下代码向我们展示了如何导入这些包&#xff1

a;
from pyspark.sql import Row, SQLContextsql_context &#61
; SQLContext(sc

)csv &#61
; raw_data
.map(lambda l: l.split(",")) 使用SQLContext,我们创建一个新的sql_context变量,此中包含由 PySpark 创建的SQLContext变量的对象。由于我们使用SparkContext来启动这个SQLContext变量,我们需要将sc

作为SQLContext创建者的第一个参数。之后,我们需要取出我们的raw_data
变量,并使用l.splitlambda 函数将其映射为一个包含我们的逗号分隔值(CSV)的对象。
[list=1
]
[*]我们将利用我们的新重要Row对象来创建一个新对象,此中定义了标签。这是为了通过我们正在查看的特征对我们的数据集进行标记,如下所示&#xff1

a;
rows &#61
; csv.map(lambda p: Row(duration
&#61
;int(p), protocol&#61
;p[1
], service&#61
;p)) 在上面的代码中,我们取出了我们的逗号分隔值(csv),并创建了一个Row对象,此中包含第一个特征称为duration
,第二个特征称为protocol,第三个特征称为service。这直接对应于实际数据会合的标签。
[list=1
]
[*]如今,我们可以通过在sql_context变量中调用createDataFrame函数来创建一个新的数据框。要创建这个数据框,我们需要提供我们的行数据对象,结果对象将是df中的数据框。之后,我们需要注册一个临时表。在这里,我们只是称之为rdd。通过这样做,我们如今可以使用平凡的 SQL 语法来查询由我们的行构造的临时表中的内容&#xff1

a;
df &#61
; sql_context.createDataFrame(rows)df.registerTempTable("rdd") [list=1
]
[*]在我们的示例中,我们需要从rdd中选择duration
,这是一个临时表。我们在这里选择的协议等于'tcp',而我们在一行中的第一个特征是大于20
00的duration
,如下面的代码片断所示&#xff1

a;
sql_context.sql("""SELECT duration
FROM rdd WHERE protocol &#61
; 'tcp' AND duration
> 20
00""") [list=1
]
[*]如今,当我们调用show函数时,它会给我们每个符合这些条件的数据点&#xff1

a;
sql_context.sql("""SELECT duration
FROM rdd WHERE protocol &#61
; 'tcp' AND duration
> 20
00""").show() [list=1
]
[*]然后我们将得到以下输出&#xff1

a;
+--------+|duration
|+--------+|   1
2454||   1
0774||   1
3368||   1
03
50||   1
0409||   1
491
8||   1
00
39||   1
51
27||   25602||   1
31
20
||    2399||    61
55||   1
1
1
55||   1
21
69||   1
5239||   1
0901
||   1
51
82||    9494||    7895||   1
1
084|+--------+only showing top 20
rows 使用前面的示例,我们可以推断出我们可以使用 PySpark 包中的SQLContext变量将数据打包成 SQL 友好格式。
因此,PySpark 不但支持使用 SQL 语法查询数据,还可以使用 Spark 领域特定语言(DSL)构建结构化数据操作的查询。
使用 Spark DSL 构建查询

在本节中,我们将使用 Spark DSL 构建结构化数据操作的查询&#xff1

a;
[list=1
]
[*]在以下命令中,我们使用了与之前相同的查询&#xff1

b;这次使用了 Spark DSL 来分析和比力使用 Spark DSL 与 SQL 的差别之处,但实现了与我们在前一节中展示的 SQL 相同的目标&#xff1

a;
df.select("duration
").filter(df.duration
>20
00).filter(df.protocol&#61
;&#61
;"tcp").show() 在这个命令中,我们起首取出了在上一节中创建的df对象。然后我们通过调用select函数并传入duration
参数来选择连续时间。
[list=1
]
[*]接下来,在前面的代码片断中,我们两次调用了filter函数,起首使用df.duration
,第二次使用df.protocol。在第一种情况下,我们试图查看连续时间是否大于20
00,在第二种情况下,我们试图查看协议是否等于"tcp"。我们还需要在命令的最后附加show函数,以获得与以下代码块中表现的相同结果。
+--------+|duration
|+--------+|   1
2454||   1
0774||   1
3368||   1
03
50||   1
0409||   1
491
8||   1
00
39||   1
51
27||   25602||   1
31
20
||    2399||    61
55||   1
1
1
55||   1
21
69||   1
5239||   1
0901
||   1
51
82||    9494||    7895||   1
1
084|+--------+only showing top 20
rows 在这里,我们再次有了符合代码形貌的前 20
行数据点的结果。
总结

在本章中,我们涵盖了 Spark DSL,并学习了如何构建查询。我们还学习了如何使用 Spark SQL 模式操纵 DataFrames,然后我们使用 Spark DSL 构建告终构化数据操作的查询。如今我们对 Spark 有了很好的相识,让我们在接下来的章节中看一些 Apache Spark 中的本领和技术。
在下一章中,我们将看一下 Apache Spark 程序中的转换和操作。
第七章&#xff1

a;转换和操作

转换和操作是 Apache Spark 程序的重要构建模块。在本章中,我们将看一下 Spark 转换来推迟计算,然后看一下应该制止哪些转换。然后,我们将使用reduce和reduceByKey方法对数据集进行计算。然后,我们将实行触发实际计算的操作。在本章结束时,我们还将学习如何重用相同的rdd进行差别的操作。
在本章中,我们将涵盖以下主题&#xff1

a;


[*] 使用 Spark 转换来推迟计算到以后的时间
[*] 制止转换
[*] 使用reduce和reduceByKey方法来计算结果
[*] 实行触发实际计算我们的有向无环图(DAG)的操作
[*] 重用相同的rdd进行差别的操作
使用 Spark 转换来推迟计算到以后的时间

让我们起首相识 Spark DAG 的创建。我们将通过发出操作来实行 DAG,并推迟关于启动作业的决定,直到最后一刻来查抄这种可能性给我们带来了什么。
让我们看一下我们将在本节中使用的代码。
起首,我们需要初始化 Spark。我们进行的每个测试都是相同的。在开始使用之前,我们需要初始化它,如下例所示&#xff1

a;
class DeferComputations extends FunSuite {val spark: SparkContext &#61
; SparkSession.builder().master("local").getOrCreate().sparkContext 然后,我们将进行实际测试。在这里,test被称为should defer computation。它很简朴,但展示了 Spark 的一个非常强盛的抽象。我们起首创建一个InputRecord的rdd,如下例所示&#xff1

a;
test("should defer computations") { //given    val input &#61
; spark.makeRDD(      List(InputRecord(userId &#61
; "A"),            InputRecord(userId &#61
; "B"))) InputRecord是一个具有可选参数的唯一标识符的案例类。
假如我们没有提供它和必需的参数userId,它可以是一个随机的uuid。InputRecord将在本书中用于测试目的。我们已经创建了两条InputRecord的记录,我们将对其应用转换,如下例所示&#xff1

a;
//when apply transformationval rdd &#61
; input    .filter(_.userId.contains("A"))    .keyBy(_.userId).map(_._2.userId.toLowerCase)//.... built processing graph lazy 我们只会过滤userId字段中包含A的记录。然后我们将其转换为keyBy(_.userId),然后从值中提取userId并将其映射为小写。这就是我们的rdd。以是,在这里,我们只创建了 DAG,但还没有实行。假设我们有一个复杂的程序,在实际逻辑之前创建了许多这样的无环图。
Spark 的长处是直到发出操作之前不会实行,但我们可以有一些条件逻辑。例如,我们可以得到一个快速路径的实行。假设我们有shouldExecutePartOfCode(),它可以查抄配置开关,或者去 REST 服务计算rdd计算是否仍然相关,如下例所示&#xff1

a;
if (shouldExecutePartOfCode()) {
   //rdd.saveAsTextFile("") ||
   rdd.collect().toList
} else {
    //condition changed - don't need to evaluate DAG
}
}
我们已经使用了简朴的方法进行测试,我们只是返回true,但在实际生活中,这可能是复杂的逻辑&#xff1

a;
private def shouldExecutePartOfCode(): Boolean &#61
; {    //domain logic that decide if we still need to calculate    true    }} 在它返回true之后,我们可以决定是否要实行 DAG。假如要实行,我们可以调用rdd.collect().toList或saveAsTextFile来实行rdd。否则,我们可以有一个快速路径,并决定我们不再对输入的rdd感兴趣。通过这样做,只会创建图。
当我们开始测试时,它将耗费一些时间来完成,并返回以下输出&#xff1

a;
"C:\Program Files\Java\jdk-1
2\bin\java.exe" "-javaagent:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\lib\idea_rt.jar&#61
;50627:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\bin" -Dfile.encoding&#61
;UTF-8 -classpath C:\Users\Sneha\IdeaProjects\Chapter07\out\production\Chapter07 com.company.MainProcess finished with exit code 0 我们可以看到我们的测试通过了,我们可以得出它按预期工作的结论。如今,让我们看一些应该制止的转换。
制止转换

在本节中,我们将看一下应该制止的转换。在这里,我们将专注于一个特定的转换。
我们将从理解groupByAPI 开始。然后,我们将研究在使用groupBy时的数据分区,然后我们将看一下什么是 skew 分区以及为什么应该制止 skew 分区。
在这里,我们正在创建一个交易列表。UserTransaction是另一个模型类,包括userId和amount。以下代码块表现了一个范例的交易,我们正在创建一个包含五个交易的列表&#xff1

a;
test("should trigger computations using actions") { //given val input &#61
; spark.makeRDD(   List(         UserTransaction(userId &#61
; "A", amount &#61
; 1
00
1
),         UserTransaction(userId &#61
; "A", amount &#61
; 1
00
),         UserTransaction(userId &#61
; "A", amount &#61
; 1
02),         UserTransaction(userId &#61
; "A", amount &#61
; 1
),         UserTransaction(userId &#61
; "B", amount &#61
; 1
3))) 我们已经为userId &#61
; "A"创建了四笔交易,为userId &#61
; "B"创建了一笔交易。
如今,让我们考虑我们想要归并特定userId的交易以获得交易列表。我们有一个input,我们正在按userId分组,如下例所示&#xff1

a;
//when apply transformationval rdd &#61
; input    .groupBy(_.userId)    .map(x &#61
;> (x._1
,x._2.toList))    .collect()    .toList 对于每个x元素,我们将创建一个元组。元组的第一个元素是一个 ID,而第二个元素是该特定 ID 的每个交易的迭代器。我们将使用toList将其转换为列表。然后,我们将网络所有内容并将其分配给toList以获得我们的结果。让我们断言结果。rdd应该包含与B相同的元素,即键和一个交易,以及A,此中有四个交易,如下面的代码所示&#xff1

a;
//thenrdd should contain theSameElementsAs List(    ("B", List(UserTransaction("B", 1
3))),    ("A", List(      UserTransaction("A", 1
00
1
),      UserTransaction("A", 1
00
),      UserTransaction("A", 1
02),      UserTransaction("A", 1
))    )) }} 让我们开始这个测试,并查抄它是否按预期举动。我们得到以下输出&#xff1

a;
"C:\Program Files\Java\jdk-1
2\bin\java.exe" "-javaagent:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\lib\idea_rt.jar&#61
;50822:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\bin" -Dfile.encoding&#61
;UTF-8 -classpath C:\Users\Sneha\IdeaProjects\Chapter07\out\production\Chapter07 com.company.MainProcess finished with exit code 0 乍一看,它已经通过了,并且按预期工作。但是,为什么我们要对它进行分组的问题就出现了。我们想要对它进行分组以将其保存到文件系统或进行一些进一步的操作,例如毗连所有金额。
我们可以看到我们的输入不是正常分布的,因为几乎所有的交易都是针对userId &#61
; "A"。因此,我们有一个偏斜的键。这意味着一个键包含大部门数据,而其他键包含较少的数据。当我们在 Spark 中使用groupBy时,它会获取所有具有相同分组的元素,例如在这个例子中是userId,并将这些值发送到完全相同的实行者。
例如,假如我们的实行者有 5GB 的内存,我们有一个非常大的数据集,有数百 GB,此中一个键有 90%的数据,这意味着所有数据都将传输到一个实行者,别的的实行者将获取少数数据。因此,数据将不会正常分布,并且由于非匀称分布,处理效率将不会尽可能高。
因此,当我们使用groupBy键时,我们必须起首答复为什么要对其进行分组的问题。也许我们可以在groupBy之前对其进行过滤或聚合,然后我们只会对结果进行分组,或者根本不进行分组。我们将在以下部门中研究如何使用 Spark API 办理这个问题。
使用 reduce 和 reduceByKey 方法来计算结果

在本节中,我们将使用reduce和reduceBykey函数来计算我们的结果,并相识reduce的举动。然后,我们将比力reduce和reduceBykey函数,以确定在特定用例中应该使用哪个函数。
我们将起首关注reduceAPI。起首,我们需要创建一个UserTransaction的输入。我们有用户交易A,金额为1
0,B的金额为1
,A的金额为1
01
。假设我们想找出全局最大值。我们对特定键的数据不感兴趣,而是对全局数据感兴趣。我们想要扫描它,取最大值,并返回它,如下例所示&#xff1

a;
test("should use reduce API") {    //given    val input &#61
; spark.makeRDD(List(    UserTransaction("A", 1
0),    UserTransaction("B", 1
),    UserTransaction("A", 1
01
)    )) 因此,这是减少使用情况。如今,让我们看看如何实现它,如下例所示&#xff1

a;
//whenval result &#61
; input    .map(_.amount)    .reduce((a, b) &#61
;> if (a > b) a else b)//thenassert(result &#61
;&#61
; 1
01
)} 对于input,我们需要起首映射我们感兴趣的字段。在这种情况下,我们对amount感兴趣。我们将取amount,然后取最大值。
在前面的代码示例中,reduce有两个参数,a和b。一个参数将是我们正在传递的特定 Lambda 中的当前最大值,而第二个参数将是我们如今正在观察的实际值。假如该值高于到如今为止的最大状态,我们将返回a&#xff1

b;假如不是,它将返回b。我们将遍历所有元素,最闭幕果将只是一个长数字。
因此,让我们测试一下,查抄结果是否确实是1
01
,如以下代码输出所示。这意味着我们的测试通过了。
"C:\Program Files\Java\jdk-1
2\bin\java.exe" "-javaagent:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\lib\idea_rt.jar&#61
;50894:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\bin" -Dfile.encoding&#61
;UTF-8 -classpath C:\Users\Sneha\IdeaProjects\Chapter07\out\production\Chapter07 com.company.MainProcess finished with exit code 0 如今,让我们考虑一个差别的情况。我们想找到最大的交易金额,但这次我们想根据用户来做。我们不但想找出用户A的最大交易,还想找出用户B的最大交易,但我们希望这些事情是独立的。因此,对于相同的每个键,我们只想从我们的数据中取出最大值,如以下示例所示&#xff1

a;
test("should use reduceByKey API") {    //given    val input &#61
; spark.makeRDD(    List(      UserTransaction("A", 1
0),      UserTransaction("B", 1
),      UserTransaction("A", 1
01
)    )) 要实现这一点,reduce不是一个好选择,因为它将遍历所有的值并给出全局最大值。我们在 Spark 中有关键操作,但起首,我们要为特定的元素组做这件事。我们需要使用keyBy告诉 Spark 应该将哪个 ID 作为唯一的,并且它将仅在特定的键内实行reduce函数。因此,我们使用keyBy(_.userId),然后得到reducedByKey函数。reduceByKey函数雷同于reduce,但它按键工作,因此在 Lambda 内,我们只会得到特定键的值,如以下示例所示&#xff1

a;
    //when    val result &#61
; input      .keyBy(_.userId)      .reduceByKey((firstTransaction, secondTransaction) &#61
;>      TransactionChecker.higherTransactionAmount(firstTransaction, secondTransaction))      .collect()      .toList 通过这样做,我们得到第一笔交易,然后是第二笔。第一笔将是当前的最大值,第二笔将是我们正在观察的交易。我们将创建一个辅助函数,它接受这些交易并称之为higherTransactionAmount。
higherTransactionAmount函数用于获取firstTransaction和secondTransaction。请留意,对于UserTransaction类型,我们需要传递该类型。它还需要返回UserTransaction,我们不能返回差别的类型。
假如您正在使用 Spark 的reduceByKey方法,我们需要返回与input参数相同的类型。假如firstTransaction.amount高于secondTransaction.amount,我们将返回firstTransaction,因为我们返回的是secondTransaction,以是是交易对象而不是总金额。这在以下示例中表现&#xff1

a;
object TransactionChecker {    def higherTransactionAmount(firstTransaction: UserTransaction, secondTransaction: UserTransaction): UserTransaction &#61
; {      if (firstTransaction.amount > secondTransaction.amount) firstTransaction else   secondTransaction    }} 如今,我们将网络、添加和测试交易。在我们的测试之后,我们得到了输出,对于键B,我们应该得到交易("B", 1
),对于键A,交易("A", 1
01
)。没有交易("A", 1
0),因为我们已颠末滤掉了它,但我们可以看到对于每个键,我们都能找到最大值。这在以下示例中表现&#xff1

a;
    //then    result should contain theSameElementsAs      List(("B", UserTransaction("B", 1
)), ("A", UserTransaction("A", 1
01
)))}} 我们可以看到测试通过了,一切都如预期的那样,如以下输出所示&#xff1

a;
"C:\Program Files\Java\jdk-1
2\bin\java.exe" "-javaagent:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\lib\idea_rt.jar&#61
;50909:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\bin" -Dfile.encoding&#61
;UTF-8 -classpath C:\Users\Sneha\IdeaProjects\Chapter07\out\production\Chapter07 com.company.MainProcess finished with exit code 0 在下一节中,我们将实行触发数据计算的操作。
实行触发计算的操作

Spark 有更多触发 DAG 的操作,我们应该相识所有这些,因为它们非常重要。在本节中,我们将相识 Spark 中可以成为操作的内容,对操作进行一次遍历,并测试这些操作是否符合预期。
我们已经涵盖的第一个操作是collect。除此之外,我们还涵盖了两个操作——在上一节中我们都涵盖了reduce和reduceByKey。这两种方法都是操作,因为它们返回单个结果。
起首,我们将创建我们的交易的input,然后应用一些转换,仅用于测试目的。我们将只取包含A的用户,使用keyBy_.userId,然后只取所需交易的金额,如以下示例所示&#xff1

a;
test("should trigger computations using actions") {   //given   val input &#61
; spark.makeRDD(   List(         UserTransaction(userId &#61
; "A", amount &#61
; 1
00
1
),         UserTransaction(userId &#61
; "A", amount &#61
; 1
00
),         UserTransaction(userId &#61
; "A", amount &#61
; 1
02),         UserTransaction(userId &#61
; "A", amount &#61
; 1
),         UserTransaction(userId &#61
; "B", amount &#61
; 1
3)))//when apply transformation val rdd &#61
; input   .filter(_.userId.contains("A"))   .keyBy(_.userId)   .map(_._2.amount) 我们已经知道的第一个操作是rdd.collect().toList。接下来是count(),它需要获取所有的值并计算rdd中有多少值。没有办法在不触发转换的情况下实行count()。别的,Spark 中另有差别的方法,如countApprox、countApproxDistinct、countByValue和countByValueApprox。以下示例表现了rdd.collect().toList的代码&#xff1

a;
//then
println(rdd.collect().toList)
println(rdd.count()) //and all count*
假如我们有一个庞大的数据集,并且近似计数就足够了,你可以使用countApprox,因为它会快得多。然后我们使用rdd.first(),但这个选项有点差别,因为它只需要取第一个元素。有时,假如你想取第一个元素并实行我们 DAG 中的所有操作,我们需要专注于这一点,并以以下方式查抄它&#xff1

a;
println(rdd.first())
别的,在rdd上,我们有foreach(),这是一个循环,我们可以传递任何函数。假定 Scala 函数或 Java 函数是 Lambda,但要实行我们结果rdd的元素,需要计算 DAG,因为从这里开始,它就是一个操作。foreach()方法的另一个变体是foreachPartition(),它获取每个分区并返回分区的迭代器。在此中,我们有一个迭代器再次进行迭代并打印我们的元素。我们另有我们的max()和min()方法,预期的是,max()取最大值,min()取最小值。但这些方法都需要隐式排序。
假如我们有一个简朴的原始类型的rdd,比如Long,我们不需要在这里传递它。但假如我们不使用map(),我们需要为 Spark 定义UserTransaction的排序,以便找出哪个元素是max,哪个元素是min。这两件事需要实行 DAG,因此它们被视为操作,如下面的例子所示&#xff1

a;
rdd.foreach(println(_)) rdd.foreachPartition(t &#61
;> t.foreach(println(_))) println(rdd.max()) println(rdd.min()) 然后我们有takeOrdered(),这是一个比first()更耗时的操作,因为first()取一个随机元素。takeOrdered()需要实行 DAG 并对所有内容进行排序。当一切都排序好后,它才取出顶部的元素。
在我们的例子中,我们取num &#61
; 1
。但有时,出于测试或监控的目的,我们需要只取数据的样本。为了取样,我们使用takeSample()方法并传递一个元素数量,如下面的代码所示&#xff1

a;
println(rdd.takeOrdered(1
).toList) println(rdd.takeSample(false, 2).toList) }} 如今,让我们开始测试并查看实现前面操作的输出,如下面的屏幕截图所示&#xff1

a;
List(1
00
1
, 1
00
, 1
02 ,1
)41
00
1
1
00
1
1
00
1
021
第一个操作返回所有值。第二个操作返回4作为计数。我们将考虑第一个元素1
00
1
,但这是一个随机值,它是无序的。然后我们在循环中打印所有的元素,如下面的输出所示&#xff1

a;
1
021
1
00
1
1
List(1
)List(1
00
, 1
) 然后我们得到max和min值,如1
00
1
和1
,这与first()雷同。之后,我们得到一个有序列表List(1
),和一个样本List(1
00
, 1
),这是随机的。因此,在样本中,我们从输入数据和应用的转换中得到随机值。
在下一节中,我们将学习如何重用rdd进行差别的操作。
重用相同的 rdd 进行差别的操作

在这一部门,我们将重用相同的rdd进行差别的操作。起首,我们将通过重用rdd来最小化实行时间。然后,我们将查看缓存和我们代码的性能测试。
下面的例子是前面部门的测试,但稍作修改,这里我们通过currentTimeMillis()取start和result。因此,我们只是测量实行的所有操作的result&#xff1

a;
//then every call to action means that we are going up to the RDD chain//if we are loading data from external file-system (I.E.: HDFS), every action means//that we need to load it from FS.    val start &#61
; System.currentTimeMillis()    println(rdd.collect().toList)    println(rdd.count())    println(rdd.first())
    rdd.foreach(println(_))    rdd.foreachPartition(t &#61
;> t.foreach(println(_)))    println(rdd.max())    println(rdd.min())    println(rdd.takeOrdered(1
).toList)    println(rdd.takeSample(false, 2).toList)    val result &#61
; System.currentTimeMillis() - start    println(s"time taken (no-cache): $result")} 假如有人对 Spark 不太相识,他们会以为所有操作都被巧妙地实行了。我们知道每个操作都意味着我们要上升到链中的rdd,这意味着我们要对所有的转换进行加载数据。在生产系统中,加载数据将来自外部的 PI 系统,比如 HDFS。这意味着每个操作都会导致对文件系统的调用,这将检索所有数据,然后应用转换,如下例所示&#xff1

a;
//when apply transformationval rdd &#61
; input    .filter(_.userId.contains("A"))    .keyBy(_.userId)    .map(_._2.amount) 这是一个非常昂贵的操作,因为每个操作都非常昂贵。当我们开始这个测试时,我们可以看到没有缓存的时间为 632 毫秒,如下面的输出所示&#xff1

a;
List(1
)List(1
00
, 1
)time taken (no-cache): 632Process finished with exit code 0 让我们将这与缓存使用进行比力。乍一看,我们的测试看起来非常相似,但这并不相同,因为您正在使用cache(),而我们正在返回rdd。因此,rdd将已经被缓存,对rdd的每个后续调用都将颠末cache,如下例所示&#xff1

a;
//when apply transformationval rdd &#61
; input    .filter(_.userId.contains("A"))    .keyBy(_.userId)    .map(_._2.amount)    .cache() 第一个操作将实行 DAG,将数据保存到我们的缓存中,然后后续的操作将根据从内存中调用的方法来检索特定的内容。不会有 HDFS 查找,以是让我们按照以下示例开始这个测试,看看需要多长时间&#xff1

a;
//then every call to action means that we are going up to the RDD chain//if we are loading data from external file-system (I.E.: HDFS), every action means//that we need to load it from FS.    val start &#61
; System.currentTimeMillis()    println(rdd.collect().toList)    println(rdd.count())    println(rdd.first())
    rdd.foreach(println(_))    rdd.foreachPartition(t &#61
;> t.foreach(println(_)))    println(rdd.max())    println(rdd.min())    println(rdd.takeOrdered(1
).toList)    println(rdd.takeSample(false, 2).toList)    val result &#61
; System.currentTimeMillis() - start    println(s"time taken(cache): $result")    }} 第一个输出将如下所示&#xff1

a;
List(1
)List(1
00
, 1
02)time taken (no-cache): 585List(1
00
1
, 1
00
, 1
02, 1
)4 第二个输出将如下所示&#xff1

a;
1
List(1
)List(1
02, 1
)time taken(cache): 336Process finished with exit code 0 没有缓存,值为585毫秒,有缓存时,值为336。这个差别并不大,因为我们只是在测试中创建数据。然而,在真实的生产系统中,这将是一个很大的差别,因为我们需要从外部文件系统中查找数据。
总结

因此,让我们总结一下这一章节。起首,我们使用 Spark 转换来推迟计算到以后的时间,然后我们学习了哪些转换应该制止。接下来,我们看了如何使用reduceByKey和reduce来计算我们的全局结果和特定键的结果。之后,我们实行了触发计算的操作,然后相识到每个操作都意味着加载数据的调用。为了缓解这个问题,我们学习了如作甚差别的操作减少相同的rdd。
在下一章中,我们将看一下 Spark 引擎的不可变设计。
第八章&#xff1

a;不可变设计

在本章中,我们将看看 Apache Spark 的不可变设计。我们将深入研究 Spark RDD 的父/子链,并以不可变的方式使用 RDD。然后,我们将使用 DataFrame 操作进行转换,以讨论在高度并发的情况中的不可变性。在本章结束时,我们将以不可变的方式使用数据集 API。
在这一章中,我们将涵盖以下主题&#xff1

a;


[*] 深入研究 Spark RDD 的父/子链
[*] 以不可变的方式使用 RDD
[*] 使用 DataFrame 操作进行转换
[*] 在高度并发的情况中的不可变性
[*] 以不可变的方式使用数据集 API
深入研究 Spark RDD 的父/子链

在本节中,我们将实验实现我们本身的 RDD,继续 RDD 的父属性。
我们将讨论以下主题&#xff1

a;


[*] 扩展 RDD
[*] 与父 RDD 链接新的 RDD
[*] 测试我们的自定义 RDD
扩展 RDD

这是一个有很多隐藏复杂性的简朴测试。让我们从创建记录的列表开始,如下面的代码块所示&#xff1

a;
class InheritanceRdd extends FunSuite {val spark: SparkContext &#61
; SparkSession    .builder().master("local").getOrCreate().sparkContexttest("use extended RDD") {    //given    val rdd &#61
; spark.makeRDD(List(Record(1
, "d1
"))) Record只是一个具有amount和desc

ription的案例类,以是amount是 1
,d1
是形貌。
然后我们创建了MultipledRDD并将rdd传递给它,然后将乘数设置为1
0,如下面的代码所示&#xff1

a;
val extendedRdd &#61
; new MultipliedRDD(rdd, 1
0) 我们传递父 RDD,因为它包含在另一个 RDD 中加载的数据。通过这种方式,我们构建了两个 RDD 的继续链。
与父 RDD 链接新的 RDD

我们起首创建了一个多重 RDD 类。在MultipliedRDD类中,我们有两个传递参数的东西&#xff1

a;


[*] 记录的简要 RDD,即RDD
[*] 乘数,即Double
在我们的情况下,可能会有多个 RDD 的链,这意味着我们的 RDD 中可能会有多个 RDD。因此,这并不总是所有有向无环图的父级。我们只是扩展了类型为记录的 RDD,因此我们需要传递扩展的 RDD。
RDD 有很多方法,我们可以覆盖任何我们想要的方法。但是,这一次,我们选择了compute方法,我们将覆盖计算乘数的方法。在这里,我们获取Partition分区和TaskContext。这些是实行引擎传递给我们方法的,因此我们不需要担心这一点。但是,我们需要返回与我们通过继续链中的 RDD 类传递的类型完全相同的迭代器。这将是记录的迭代器。
然后我们实行第一个父逻辑,第一个父只是获取我们链中的第一个 RDD。这里的类型是Record,我们获取split和context的iterator,此中split只是将要实行的分区。我们知道 Spark RDD 是由分区器分区的,但是在这里,我们只是获取我们需要拆分的特定分区。因此,迭代器获取分区和任务上下文,因此它知道应该从该迭代方法返回哪些值。对于迭代器中的每条记录,即salesRecord,如amount和desc

ription,我们将amount乘以传递给构造函数的multiplier来获得我们的Double。
通过这样做,我们已经将我们的金额乘以了乘数,然后我们可以返回具有新金额的新记录。因此,我们如今有了旧记录乘以我们的“乘数”的金额和salesRecord的形貌。对于第二个过滤器,我们需要“覆盖”的是getPartitions,因为我们希望保存父 RDD 的分区。例如,假如之前的 RDD 有 1
00
个分区,我们也希望我们的MultipledRDD有 1
00
个分区。因此,我们希望保存关于分区的信息,而不是丢失它。出于同样的缘故原由,我们只是将其代理给firstParent。RDD 的firstParent然后只会从特定 RDD 中获取先前的分区。
通过这种方式,我们创建了一个新的multipliedRDD,它传递了父级和乘数。对于我们的extendedRDD,我们需要collect它并调用toList,我们的列表应该包含1
0和d1
,如下例所示&#xff1

a;
extendedRdd.collect().toList should contain theSameElementsAs List( Record(1
0, "d1
") ) }} 当我们创建新的 RDD 时,计算会自动实行,因此它总是在没有显式方法调用的情况下实行。
测试我们的自定义 RDD

让我们开始这个测试,以查抄这是否已经创建了我们的 RDD。通过这样做,我们可以扩展我们的父 RDD 并向我们的 RDD 添加举动。这在下面的截图中表现&#xff1

a;
"C:\Program Files\Java\jdk-1
2\bin\java.exe" "-javaagent:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\lib\idea_rt.jar&#61
;51
687:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\bin" -Dfile.encoding&#61
;UTF-8 -classpath C:\Users\Sneha\IdeaProjects\Chapter07\out\production\Chapter07 com.company.MainProcess finished with exit code 0 在下一节中,我们将以不可变的方式使用 RDD。
以不可变的方式使用 RDD

如今我们知道如何使用 RDD 继续创建实行链,让我们学习如何以不可变的方式使用 RDD。
在这一部门,我们将讨论以下主题&#xff1

a;


[*] 理解 DAG 的不可变性
[*] 从一个根 RDD 创建两个叶子
[*] 查抄两个叶子的结果
让我们起首相识有向无环图的不可变性以及它给我们带来了什么。然后,我们将从一个节点 RDD 创建两个叶子,并查抄假如我们在一个叶子 RDD 上创建一个转换,那么两个叶子是否完全独立地举动。然后,我们将查抄当前 RDD 的两个叶子的结果,并查抄对任何叶子的任何转换是否不会改变或影响根 RDD。以这种方式工作是至关重要的,因为我们发现我们将无法从根 RDD 创建另一个叶子,因为根 RDD 将被更改,这意味着它将是可变的。为了克服这一点,Spark 设计师为我们创建了一个不可变的 RDD。
有一个简朴的测试来表现 RDD 应该是不可变的。起首,我们将从0 到 5创建一个 RDD,它被添加到来自 Scala 分支的序列中。to获取Int,第一个参数是一个隐式参数,来自 Scala 包,如下例所示&#xff1

a;
class ImmutableRDD extends FunSuite {
    val spark: SparkContext &#61
; SparkSession
      .builder().master("local").getOrCreate().sparkContext

test("RDD should be immutable") {
    //given
    val data &#61
; spark.makeRDD(0 to 5)
一旦我们有了 RDD 数据,我们可以创建第一个叶子。第一个叶子是一个结果(res),我们只是将每个元素乘以2。让我们创建第二个叶子,但这次它将被标记为4,如下例所示&#xff1

a;
//whenval res &#61
; data.map(_ * 2)val leaf2
&#61
; data.map(_ * 4) 以是,我们有我们的根 RDD 和两个叶子。起首,我们将网络第一个叶子,并看到此中的元素为0, 2, 4, 6, 8, 1
0,以是这里的一切都乘以2,如下例所示&#xff1

a;
//thenres.collect().toList should contain theSameElementsAs List(    0, 2, 4, 6, 8, 1
0) 然而,即使我们在res上有了关照,数据仍然与一开始的完全相同,即0, 1
, 2, 3, 4, 5,如下例所示&#xff1

a;
data.collect().toList should contain theSameElementsAs List(    0, 1
, 2, 3, 4, 5    )}} 以是,一切都是不可变的,实行* 2的转换并没有改变我们的数据。假如我们为leaf2
创建一个测试,我们将collect它并调用toList。我们会看到它应该包含像0, 4, 8, 1
2, 1
6, 20
这样的元素,如下例所示&#xff1

a;
leaf2
.collect().toList should contain theSameElementsAs List( 0, 4, 8, 1
2, 1
6, 20
) 当我们运行测试时,我们会看到我们实行中的每条路径,即数据或第一个叶子和第二个叶子,相互独立地举动,如下面的代码输出所示&#xff1

a;
"C:\Program Files\Java\jdk-1
2\bin\java.exe" "-javaagent:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\lib\idea_rt.jar&#61
;51
704:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\bin" -Dfile.encoding&#61
;UTF-8 -classpath C:\Users\Sneha\IdeaProjects\Chapter07\out\production\Chapter07 com.company.MainProcess finished with exit code 0 每次变异都是差别的&#xff1

b;我们可以看到测试通过了,这表明我们的 RDD 是不可变的。
使用 DataFrame 操作进行转换

API 的数据下面有一个 RDD,因此 DataFrame 是不可变的。在 DataFrame 中,不可变性乃至更好,因为我们可以动态地添加和减去列,而不改变源数据集。
在这一部门,我们将涵盖以下主题&#xff1

a;


[*] 理解 DataFrame 的不可变性
[*] 从一个根 DataFrame 创建两个叶子
[*] 通过发出转换来添加新列
我们将起首使用操作的数据来转换我们的 DataFrame。起首,我们需要相识 DataFrame 的不可变性,然后我们将从一个根 DataFrame 创建两个叶子,但这次是。然后,我们将发出一个略有差别于 RDD 的转换。这将向我们的结果 DataFrame 添加一个新列,因为我们在 DataFrame 中是这样操作的。假如我们想要映射数据,那么我们需要从第一列中获取数据,进行转换,并保存到另一列,然后我们将有两列。假如我们不再感兴趣,我们可以删除第一列,但结果将是另一个 DataFrame。
因此,我们将有第一个 DataFrame 有一列,第二个有结果和源,第三个只有一个结果。让我们看看这一部门的代码。
我们将创建一个 DataFrame,以是我们需要调用toDF()方法。我们将使用"a"作为"1
","b"作为"2","d"作为"20
0"来创建UserData。UserData有userID和data两个字段,都是String类型,如下例所示&#xff1

a;
test("Should use immutable DF API") { import spark.sqlContext.implicits._ //given val userData &#61
; spark.sparkContext.makeRDD(List( UserData("a", "1
"), UserData("b", "2"), UserData("d", "20
0") )).toDF() 在测试中使用案例类创建 RDD 是很重要的,因为当我们调用 DataFrame 时,这部门将推断模式并相应地命名列。以下代码是这方面的一个例子,我们只从userData中的userID列中进行过滤&#xff1

a;
//when    val res &#61
; userData.filter(userData("userId").isin("a")) 我们的结果应该只有一条记录,以是我们要删除两列,但是我们创建的userData源将有 3 行。因此,通过过滤对其进行修改,创建了另一个名为res的 DataFrame,而不修改输入的userData,如下例所示&#xff1

a;
    assert(res.count() &#61
;&#61
; 1
)    assert(userData.count() &#61
;&#61
; 3)    }} 让我们开始这个测试,看看来自 API 的不可变数据的举动,如下屏幕截图所示&#xff1

a;
"C:\Program Files\Java\jdk-1
2\bin\java.exe" "-javaagent:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\lib\idea_rt.jar&#61
;51
71
3:C:\Program Files\JetBrains\IntelliJ IDEA 20
1
8.3.5\bin" -Dfile.encoding&#61
;UTF-8 -classpath C:\Users\Sneha\IdeaProjects\Chapter07\out\production\Chapter07 com.company.MainProcess finished with exit code 0 正如我们所看到的,我们的测试通过了,并且从结果(res)中,我们知道我们的父级没有被修改。因此,例如,假如我们想在res.map()上映射一些东西,我们可以映射userData列,如下例所示&#xff1

a;
res.map(a &#61
;> a.getString("userId") + "can") 另一个叶子将具有一个额外的列,而不更改userId源代码,因此这就是 DataFrame 的不可变性。
高并发情况中的不可变性

我们看到了不可变性如何影响程序的创建和设计,如今我们将相识它的用途。
在本节中,我们将涵盖以下主题&#xff1

a;


[*] 可变聚集的缺点
[*] 创建两个同时修改可变聚集的线程
[*] 推理并发程序
让我们起首相识可变聚集的缘故原由。为此,我们将创建两个同时修改可变聚集的线程。我们将使用此代码进行测试。起首,我们将创建一个ListBuffer,它是一个可变列表。然后,我们可以添加和删除链接,而无需为任何修改创建另一个列表。然后,我们可以创建一个具有两个线程的Executors服务。我们需要两个线程同时开始修改状态。稍后,我们将使用Java.util.concurrent中的CountDownLatch构造。这在下面的例子中表现&#xff1

a;
import java.util.concurrent.{CountDownLatch, Executors}import org.sc

alatest.FunSuiteimport sc

ala.collection.mutable.ListBufferclass MultithreadedImmutabilityTest extends FunSuite {test("warning: race condition with mutability") {//givenvar listMutable &#61
; new ListBuffer()val executors &#61
; Executors.newFixedThreadPool(2)val latch &#61
; new CountDownLatch(2) CountDownLatch是一种构造,它资助我们阻止线程处理,直到我们要求它们开始。我们需要等候逻辑,直到两个线程开始实行。然后,我们向executors提交一个Runnable,我们的run()方法通过发出countDown()来表现预备好进行操作,并将"A"添加到listMutable,如下例所示&#xff1

a;
//when executors.submit(new Runnable {   override def run(): Unit &#61
; {         latch.countDown()         listMutable +&#61
; "A"   } }) 然后,另一个线程启动,并且也使用countDown来表现它已预备好开始。但起首,它会查抄列表是否包含"A",假如没有,就会添加"A",如下例所示&#xff1

a;
executors.submit(new Runnable {   override def run(): Unit &#61
; {         latch.countDown()         if(!listMutable.contains("A")) {             listMutable +&#61
; "A"         }   } }) 然后,我们使用await()等候countDown发出,当它发出时,我们可以继续验证我们的程序,如下例所示&#xff1

a;
    latch.await()
listMutable包含"A"或可能包含"A","A"。listMutable查抄列表是否包含"A",假如没有,它将不会添加该元素,如下例所示&#xff1

a;
    //then
    //listMutable can have ("A") or ("A","A")
    }
}
但这里存在竞争条件。在查抄if(!listMutable.contains("A"))之后,run()线程可能会将"A"元素添加到列表中。但我们在if中,以是我们将通过listMutable +&#61
; "A"添加另一个"A"。由于状态的可变性以及它通过另一个线程进行了修改,我们可能会有"A"或"A","A"。
在使用可变状态时需要警惕,因为我们不能有这样一个损坏的状态。为了缓解这个问题,我们可以在java.util聚集上使用同步列表。
但假如我们有同步块,那么我们的程序将非常慢,因为我们需要独占地访问它。我们还可以使用java.util.concurrent.locks包中的lock。我们可以使用ReadLock或WriteLock等实现。在下面的例子中,我们将使用WriteLock&#xff1

a;
val lock &#61
; new WriteLock() 我们还需要对我们的lock()进行lock,然后再进行下一步,如下例所示&#xff1

a;
lock.lock()
之后,我们可以使用unlock()。然而,我们也应该在第二个线程中这样做,这样我们的列表只有一个元素,如下例所示&#xff1

a;
lock.unlock()
输出如下&#xff1

a;
https://img-home.csdnimg.cn/images/20
2307240241
59.png?origin_url&#61
;https%3A%2F%2Fgithub.com%2FOpenDocCN%2Ffreelearn-bigdata-zh%2Fraw%2Fmaster%2Fdocs%2Fhsn-bgdt-anlt-pyspark%2Fimg%2F9b1
91
08c-26d0-41
1
5-92a9-81
91
a1
900bdb.png&pos_id&#61
;img-p2Afc2xX-1
721
405892621

锁定是一个非常艰巨和昂贵的操作,因此不可变性是性能程序的关键。
以不可变的方式使用数据集 API

在本节中,我们将以不可变的方式使用数据集 API。我们将涵盖以下主题&#xff1

a;


[*] 数据集的不可变性
[*] 从一个根数据集创建两个叶子
[*] 通过发出转换添加新列
数据集的测试用例非常相似,但我们需要对我们的数据进行toDS()以确保类型安全。数据集的类型是userData,如下例所示&#xff1

a;
import com.tomekl007.UserDataimport org.apache.spark.sql.SparkSessionimport org.sc

alatest.FunSuiteclass ImmutableDataSet extends FunSuite { val spark: SparkSession &#61
; SparkSession .builder().master("local").getOrCreate()test("Should use immutable DF API") { import spark.sqlContext.implicits._ //given val userData &#61
; spark.sparkContext.makeRDD(List( UserData("a", "1
"), UserData("b", "2"), UserData("d", "20
0") )).toDF() 如今,我们将发出对userData的过滤,并指定isin,如下例所示&#xff1

a;
   //when    val res &#61
; userData.filter(userData("userId").isin("a")) 它将返回结果(res),这是一个带有我们的1
元素的叶子。由于这个显着的根,userData仍然有3个元素。让我们实行这个程序,如下例所示&#xff1

a;
    assert(res.count() &#61
;&#61
; 1
)    assert(userData.count() &#61
;&#61
; 3) }} 我们可以看到我们的测试通过了,这意味着数据集也是 DataFrame 之上的不可变抽象,并且具有相同的特性。userData有一个非常有用的类型集,假如使用show()方法,它将推断模式并知道"a"字段是字符串或其他类型,如下例所示&#xff1

a;
userData.show()
输出将如下所示&#xff1

a;
+------+----+|userId|data||----- |----||   a|   1
||   b|   2||   d| 20
0|+------|----+ 在前面的输出中,我们有userID和data字段。
总结

在本章中,我们深入研究了 Spark RDD 的父子链,并创建了一个能够根据父 RDD 计算一切的乘数 RDD,还基于父 RDD 的分区方案。我们以不可变的方式使用了 RDD。我们看到,从父级创建的叶子的修改并没有修改部门。我们还学习了一个更好的抽象,即 DataFrame,因此我们学会了可以在那里使用转换。然而,每个转换只是添加到另一列,而不是直接修改任何内容。接下来,我们只需在高度并发的情况中设置不可变性。我们看到了当访问多个线程时,可变状态是不好的。最后,我们看到数据集 API 也是以不可变的方式创建的,我们可以在这里利用这些特性。
在下一章中,我们将看看如何制止洗牌和减少个人开支。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao1
23.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: PySpark 大数据分析实用指南(一)