Spark eventlog

羊蹓狼  金牌会员 | 2025-3-16 19:55:51 | 来自手机 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 984|帖子 984|积分 2952

Eventlog 示例

  1. {
  2.     "Event": "org.apache.spark.sql.execution.ui.SparkListenerSQLExecutionStart",
  3.     "executionId": 0,
  4.     "rootExecutionId": 0,
  5.     "desc ription": "select round(a, 2), a from double_table",
  6.     "details": "org.apache.spark.sql.hive.thriftserver.SparkSQLCLIDriver.main(SparkSQLCLIDriver.scala)\nsun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)\nsun.reflect.NativeMetho    dAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)\nsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)\njava.lang.reflect.Method.invoke(Method.java:498)\norg.apache.spark.deploy.JavaMainApplication.start(SparkApplication.scala:52)\norg.apache.spark.deploy.SparkSubmit.org$apache$spark$deploy$SparkSubmit$$runMain    (SparkSubmit.scala:1029)\norg.apache.spark.deploy.SparkSubmit.doRunMain$1(SparkSubmit.scala:194)\norg.apache.spark.deploy.SparkSubmit.submit(SparkSubmit.scala:217)\norg.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:91)\norg.apache.spark.deploy.SparkSubmit$$anon$2.doSubmit(SparkSubmit.scala:1120)\norg.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:1129)\norg.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)",
  7.     "physicalPlanDescription": "==   Physical Plan ==\n* Project (3)\n+- * ColumnarToRow (2)\n   +- Scan parquet spark_catalog.default.double_table (1)\n    \n\n(1) Scan parquet spark_catalog.default.double_table\nOutput [1]: [a#0]\nBatched: true\nLocation: InMemoryFileInde    x [file:/home/hadoop/files/double_table]\nReadSchema: struct<a:double>\n\n(2) ColumnarToRow [codegen id : 1]\nInput [1]: [a#0]\n\n(3) Project [codegen id : 1]\nOutput [2]: [round(a#0, 2) AS round(a, 2)#1, a#0]\nInput [1]: [a#0]\n\n",
  8.     " sparkPlanInfo": {
  9.         "nodeName": "WholeStageCodegen (1)",
  10.         "simpleString": "WholeStageCodegen (1)",
  11.         "children": [
  12.             {
  13.                 "nodeName": "Project",
  14.                 "simpleString": "Project [round(a#0, 2) AS round(a, 2)#1, a#0]",
  15.                 "children": [
  16.                     {
  17.                         "nodeName": "ColumnarToRow",
  18.                         "simple String": "ColumnarToRow",
  19.                         "children": [
  20.                             {
  21.                                 "nodeName": "InputAdapter",
  22.                                 "simpleString": "InputAdapter",
  23.                                 "children": [
  24.                                     {
  25.                                         "nodeName": "Scan parquet spark_catalog.default.double_table",
  26.                                         "simpleString": "FileScan parquet spark_catalog.default.double_table    [a#0] Batched: true, DataFilters: [], Format: Parquet, Location: InMemoryFileIndex(1 paths)[file:/home/hadoop/files/d    ouble_table], PartitionFilters: [], PushedFilters: [], ReadSchema: struct<a:double>",
  27.                                         "children": [
  28.                                         ],
  29.                                         "metadata": {
  30.                                             "Locat ion": "InMemoryFileIndex(1 paths)[file:/home/hadoop/files/double_table]",
  31.                                             "ReadSchema": "struct<a:double>",
  32.                                             "Format": "Par    quet",
  33.                                             "Batched": "true",
  34.                                             "PartitionFilters": "[]",
  35.                                             "PushedFilters": "[]",
  36.                                             "DataFilters": "[]"
  37.                                         },
  38.                                         "metrics": [
  39.                                             {
  40.                                                 "name": "number of     files read",
  41.                                                 "accumulatorId": 5,
  42.                                                 "metricType": "sum"
  43.                                             },
  44.                                             {
  45.                                                 "name": "scan time",
  46.                                                 "accumulatorId": 4,
  47.                                                 "metricType": "timing"
  48.                                             },
  49.                                             {
  50.                                                 "nam e": "metadata time",
  51.                                                 "accumulatorId": 6,
  52.                                                 "metricType": "timing"
  53.                                             },
  54.                                             {
  55.                                                 "name": "size of files read",
  56.                                                 "accumulatorId": 7,
  57.                                                 "metricTyp e": "size"
  58.                                             },
  59.                                             {
  60.                                                 "name": "number of output rows",
  61.                                                 "accumulatorId": 3,
  62.                                                 "metricType": "sum"
  63.                                             }
  64.                                         ]
  65.                                     }
  66.                                 ],
  67.                                 "metadata": {
  68.                                 },
  69.                                 "metrics": [
  70.                                 ]
  71.                             }
  72.                         ],
  73.                         "met adata": {
  74.                         },
  75.                         "metrics": [
  76.                             {
  77.                                 "name": "number of output rows",
  78.                                 "accumulatorId": 1,
  79.                                 "metricType": "sum"
  80.                             },
  81.                             {
  82.                                 "name": "number of input b    atches",
  83.                                 "accumulatorId": 2,
  84.                                 "metricType": "sum"
  85.                             }
  86.                         ]
  87.                     }
  88.                 ],
  89.                 "metadata": {
  90.                 },
  91.                 "metrics": [
  92.                 ]
  93.             }
  94.         ],
  95.         "metadata": {
  96.         },
  97.         "metrics": [
  98.             {
  99.                 "name": "durat    ion",
  100.                 "accumulatorId": 0,
  101.                 "metricType": "timing"
  102.             }
  103.         ]
  104.     },
  105.     "time": 1741661558528,
  106.     "modifiedConfigs": {
  107.     },
  108.     "jobTags": [
  109.     ]
  110. }
复制代码
  1. == Physical Plan ==
  2. * Project (3)
  3. +- * ColumnarToRow (2)
  4.    +- Scan parquet spark_catalog.default.double_table (1)
复制代码
对应于
  1. ==     Physical Plan ==\n* Project (3)\n+- * ColumnarToRow (2)\n   +- Scan parquet spark_catalog.default.double_table (1)\n    \n\n
复制代码
  1. (1) Scan parquet spark_catalog.default.double_table
  2. Output [1]: [a#0]
  3. Batched: true
  4. Location: InMemoryFileIndex [file:/home/hadoop/files/double_table]
  5. ReadSchema: struct<a:double>
  6. (2) ColumnarToRow [codegen id : 1]
  7. Input [1]: [a#0]
  8. (3) Project [codegen id : 1]
  9. Output [2]: [round(a#0, 2) AS round(a, 2)#1, a#0]
  10. Input [1]: [a#0]
复制代码
对应于
  1. "physicalPlanDescription": "==     Physical Plan ==\n* Project (3)\n+- * ColumnarToRow (2)\n   +- Scan parquet spark_catalog.default.double_table (1)\n    \n\n
  2. (1) Scan parquet spark_catalog.default.double_table\nOutput [1]: [a#0]\nBatched: true\nLocation: InMemoryFileIndex [file:/home/hadoop/files/double_table]\nReadSchema: struct<a:double>\n\n(2) ColumnarToRow [codegen id : 1]\nInput [1]: [a#0]\n\n(3) Project [codegen id : 1]\nOutput [2]: [round(a#0, 2) AS round(a, 2)#1, a#0]\nInput [1]: [a#0]\n\n",
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

羊蹓狼

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表