Hive执行计划之一文读懂Hive执行计划

打印 上一主题 下一主题

主题 841|帖子 841|积分 2523

概述

Hive的执行计划描述了一个hiveSQL语句的具体执行步骤,通过执行计划解读可以了解hiveSQL语句被解析器转换为相应程序语言的执行逻辑。通过执行逻辑可以知晓HiveSQL运行流程,进而对流程进行优化,实现更优的数据查询处理。
同样,通过执行计划,还可以了解到哪些不一样的SQL逻辑其实是等价的,哪些看似一样的逻辑其实是执行代价完全不一样。
如果说Hive优化是一堵技术路上的高墙,那么关于Hive执行计划,就是爬上这堵高墙的一架梯子。
不同版本的Hive会采用不同的方式生成的执行计划。主要区别就是基于规则生成hive执行计划,和基于成本代价来生成执行计划。而hive早期版本是基于规则生成执行计划,在Hive0.14及之后的版本都是基于成本代价来生成执行计划,这主要是集成了Apache Calcite。Apache Calcite具体可以查看官网介绍。
两种方式的优劣显而易见,基于规则生成执行计划,作为使用方来说,集群的环境,数据量的大小完全不一样,同样的规则逻辑,执行起来差异巨大,因此会对开发者有更高的优化要求。Hive基于成本代价来生成执行计划,这种方式能够结合Hive元数据信息和Hive运行过程收集到的各类存储统计信息推测出一个更合理的执行计划。也就是说Hive本身已经为我们的SQL语句做了一轮优化了,可以预见的将来,Hive还会具备更多的优化能力。
Hive执行计划是一个预估的执行计划,只有在SQL实际执行后才会获取到真正的执行计划,而一些关系型数据库中,会提供真实的SQL执行计划。如SQLserver和Oracle等。
1.hive执行计划的查看

Hive提供的执行计划使用语法如下:
  1. EXPLAIN [EXTENDED|CBO|AST|DEPENDENCY|AUTHORIZATION|LOCKS|VECTORIZATION|ANALYZE] query
复制代码

  • EXPLAIN:查看执行计划的基本信息;
  • EXTENDED:加上 extended 可以输出有关计划的额外扩展信息。这些通常是物理信息,例如文件名等;
  • CBO:可以选择使用Calcite优化器不同成本模型生成计划。CBO 从 hive 4.0.0 版本开始支持;
  • AST:输出查询的抽象语法树。AST 在hive 2.1.0 版本删除了,存在bug,转储AST可能会导致OOM错误,将在4.0.0版本修复;
  • DEPENDENCY:dependency在EXPLAIN语句中使用会产生有关计划中输入的依赖信息。包含表和分区信息等;
  • AUTHORIZATION:显示SQL操作相关权限的信息;
  • LOCKS:这对于了解系统将获得哪些锁以运行指定的查询很有用。LOCKS 从 hive 3.2.0 开始支持;
  • VECTORIZATION:查看SQL的矢量化描述信息;
  • ANALYZE:用实际的行数注释计划。从 Hive 2.2.0 开始支持;
以上内容重点关注explain,explain extend,explain dependency,explain authorization,explain vectorization。
2.学会查看Hive执行计划的基本信息

一个HIVE查询被转换为一个由一个或多个stage组成的序列(有向无环图DAG)。这些stage可以是MapReduce stage,也可以是负责元数据存储的stage,也可以是负责文件系统的操作(比如移动和重命名)的stage。
在查询SQL语句前加上关键字explain用来查看执行计划的基本信息。
可以看如下实例的执行计划结果解析:
实例SQL
  1. -- 本文默认使用mr计算引擎
  2. explain
  3. -- 统计年龄小于30岁各个年龄里,昵称里带“小”的人数
  4. select age,count(0) as num from temp.user_info_all where ymd = '20230505'
  5. and age < 30 and nick like '%小%'
  6. group by age;
复制代码
执行计划:
  1. # 描述任务之间stage的依赖关系
  2. STAGE DEPENDENCIES:
  3.   Stage-1 is a root stage
  4.   Stage-0 depends on stages: Stage-1
  5. # 每个stage详细信息
  6. STAGE PLANS:
  7.   Stage: Stage-1
  8.     Map Reduce
  9.       Map Operator Tree:
  10.           TableScan
  11.             alias: user_info_all
  12.             Statistics: Num rows: 32634295 Data size: 783223080 Basic stats: COMPLETE Column stats: NONE
  13.             Filter Operator
  14.               predicate: ((age < 30) and (nick like '%小%')) (type: boolean)
  15.               Statistics: Num rows: 5439049 Data size: 130537176 Basic stats: COMPLETE Column stats: NONE
  16.               Select Operator
  17.                 expressions: age (type: bigint)
  18.                 outputColumnNames: age
  19.                 Statistics: Num rows: 5439049 Data size: 130537176 Basic stats: COMPLETE Column stats: NONE
  20.                 Group By Operator
  21.                   aggregations: count(0)
  22.                   keys: age (type: bigint)
  23.                   mode: hash
  24.                   outputColumnNames: _col0, _col1
  25.                   Statistics: Num rows: 5439049 Data size: 130537176 Basic stats: COMPLETE Column stats: NONE
  26.                   Reduce Output Operator
  27.                     key expressions: _col0 (type: bigint)
  28.                     sort order: +
  29.                     Map-reduce partition columns: _col0 (type: bigint)
  30.                     Statistics: Num rows: 5439049 Data size: 130537176 Basic stats: COMPLETE Column stats: NONE
  31.                     value expressions: _col1 (type: bigint)
  32.       Reduce Operator Tree:
  33.         Group By Operator
  34.           aggregations: count(VALUE._col0)
  35.           keys: KEY._col0 (type: bigint)
  36.           mode: mergepartial
  37.           outputColumnNames: _col0, _col1
  38.           Statistics: Num rows: 2719524 Data size: 65268576 Basic stats: COMPLETE Column stats: NONE
  39.           File Output Operator
  40.             compressed: true
  41.             Statistics: Num rows: 2719524 Data size: 65268576 Basic stats: COMPLETE Column stats: NONE
  42.             table:
  43.                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
  44.                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
  45.                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
  46.   Stage: Stage-0
  47.     Fetch Operator
  48.       limit: -1
  49.       Processor Tree:
  50.         ListSink
复制代码
我们将上述结果拆分看,先从最外层开始,包含两个大的部分:

  • stage dependencies: 各个stage之间的依赖性
  • stage plan: 各个stage的执行计划
先看第一部分 stage dependencies ,包含两个 stage,Stage-1 是根stage,说明这是开始的stage,Stage-0 依赖 Stage-1,Stage-1执行完成后执行Stage-0。
一些Hive执行逻辑的可视化工具页面就是利用该语句信息绘画出Hive执行流程图以及相关进度信息。
再看第二部分 stage plan,里面有一个 Map Reduce,一个MR的执行计划分为两个部分:

  • Map Operator Tree: MAP端的执行计划树
  • Reduce Operator Tree: Reduce端的执行计划树
这两个执行计划树里面包含这条sql语句的 operator:
map端Map Operator Tree信息解读:

  • TableScan 对关键字alias声明的结果集进行表扫描操作。
    alias: 表名称
    Statistics: 表统计信息,包含表中数据条数,数据大小等
  • Filter Operator:过滤操作,表示在之前的表扫描结果集上进行数据过滤。
    predicate:过滤数据时使用的谓词(过滤条件),如sql语句中的and age < 30,则此处显示(age < 30),什么是谓词,以及优化点,可以详细看之前一篇文章谓词下推。
    Statistics:过滤后数据条数和大小。
  • Select Operator: 对列进行投影,即筛选列,选取操作。
    expressions:筛选的列名称及列类型
    outputColumnNames:输出的列名称
    Statistics:筛选列后表统计信息,包含表中数据条数,数据大小等。
  • Group By Operator:分组聚合操作。
    aggregations:显示聚合函数信息,这里使用count(0)。
    keys:表示分组的列,如果没有分组,则没有此字段。
    mode:聚合模式,值有 hash:随机聚合;mergepartial:合并部分聚合结果;final:最终聚合
    outputColumnNames:聚合之后输出列名,_col0对应的是age列, _col1对应的是count(0)列。
    Statistics: 表统计信息,包含分组聚合之后的数据条数,数据大小。
  • Reduce Output Operator:输出到reduce操作结果集信息。
    key expressions:MR计算引擎,在map和reduce阶段的输出都是key-value形式,这里描述的是map端输出的键使用的是哪个数据列。_col0对应的是age列。
    sort order:值为空不排序;值为 + 正序排序,值为 - 倒序排序;值为 +- 排序的列为两列,第一列为正序,第二列为倒序,以此类推多值排序。
    Map-reduce partition columns:表示Map阶段输出到Reduce阶段的分区列,在HiveSQL中,可以用distribute by指定分区的列。这里默认为_col0对应的是age列。
    Statistics:输出结果集的统计信息。
    value expressions:对应key expressions,这里是value值字段。_col1对应的是count(0)列。
接下来是reduce阶段Reduce Operator Tree,出现和map阶段关键词一样的,其含义是一致的,罗列一下map阶段未出现的关键词。

  • File Output Operator:文件输出操作。
    compressed:表示输出结果是否进行压缩,true压缩,false不压缩。
  • table:表示当前操作表的信息。
    input format:输入文件类型。
    output format:输出文件类型。
    serde:读取表数据的序列化和反序列化方式。
Stage-0的操作信息。

  • Fetch Operator:客户端获取数据操作。
    limit:值为-1标识不限制条数,其他值为限制的条数。
  • Processor Tree:处理器树
    ListSink:数据展示。
3.执行计划步骤操作过程

可以根据上述执行计划通过流程图来描述一下hiveSQL的执行逻辑过程。

通过上图可以很清晰的了解一个hiveSQL的执行逻辑过程,便于理解hive数据流转过程。
4.explain extended

explain extended可以查看explain的扩展信息,主要包含三个部分内容:

  • 抽象语法树(Abstract Syntax Tree,AST):是SQL转换成MR或其他计算引擎的任务中的一个重要过程。AST 在HIVE-13533中从 explain extended 中删除 ,并在HIVE-15932 中恢复为单独的命令 。
  • 作业的依赖关系图,同explain展现内容。
  • 每个作业的详细信息,即Stage Plans,相比explain多了表配置信息,表文件存储路径等。具体可以通过以下命令进行查看比对。不作列举了。
  1. explain extended
  2. -- 统计年龄小于30岁各个年龄里,昵称里带“小”的人数
  3. select age,count(0) as num from temp.user_info_all where ymd = '20230505'
  4. and age < 30 and nick like '%小%'
  5. group by age;
复制代码
下一期:Hive执行计划之hive依赖及权限查询和常见使用场景
按例,欢迎点击此处关注我的个人公众号,交流更多知识。
后台回复关键字 hive,随机赠送一本鲁边备注版珍藏大数据书籍。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

灌篮少年

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表