深入解读Prometheus Adapter:云原生监控的焦点组件

打印 上一主题 下一主题

主题 873|帖子 873|积分 2619

本文详述了Prometheus Adapter的部署与配置,通过三个实践案例展示其在Kubernetes情况中的应用,帮助用户实现基于自定义指标的主动扩展和跨集群同一监控。
关注作者,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产物研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产物研发负责人

一、引言


Prometheus Adapter的背景与重要性

在现代的云原生架构中,微服务和容器化技术得到了广泛的应用。这些技术带来了体系灵活性和扩展性的提升,但同时也增加了体系监控和管理的复杂度。Prometheus作为一款开源的监控体系,因其强盛的指标收集和查询能力,成为了许多企业和开辟者的首选。然而,随着应用场景的多样化和规模的不绝扩大,单纯依靠Prometheus内置的功能已经不能满足所有需求。Prometheus Adapter应运而生,作为Prometheus生态体系的重要组成部分,提供了强盛的自定义指标扩展和灵活的指标查询能力。
Prometheus Adapter的焦点功能是将Prometheus中的监控数据转换为Kubernetes可识别的自定义指标,这对于实现基于自定义指标的主动扩展(Horizontal Pod Autoscaler,HPA)至关重要。在复杂的微服务架构和大规模集群管理中,通过Prometheus Adapter,用户可以自定义监控指标,进行精致化的资源管理和主动化运维,从而提升体系的可靠性和性能。
适用场景与应用需求

Prometheus Adapter主要应用于以下几种场景:

  • 自定义指标的主动扩展
    在Kubernetes中,HPA主要依靠于CPU和内存等基础资源的使用情况进行主动扩展。但在实际应用中,用户往往需要基于业务指标(如请求响应时间、队列长度等)进行扩展。Prometheus Adapter答应用户定义和使用自定义的Prometheus查询,将这些业务指标转化为HPA可识别的指标,从而实现更精致的扩展策略。
  • 多集群情况下的同一监控
    在多集群情况中,管理和监控各个集群的资源和应用是一项复杂的使命。通过Prometheus Adapter,用户可以将不同集群的Prometheus数据同一处置处罚和展示,实现跨集群的集中监控和管理,进步运维服从。
  • 复杂业务场景下的灵活监控
    在一些复杂业务场景中,用户需要对特定的应用或服务进行深入监控。例如,在电商网站中,用户可能需要监控每秒订单数、付出成功率等业务指标。通过Prometheus Adapter,用户可以自定义监控这些特定业务指标,结合Prometheus强盛的查询功能,进行灵活多样的监控和分析。
Prometheus Adapter的功能与优势

Prometheus Adapter具备以下几项关键功能和优势:

  • 灵活的自定义指标定义
    用户可以通过简单的配置文件,定义复杂的Prometheus查询,将结果转化为Kubernetes自定义指标。这使得用户可以根据具体的业务需求,灵活定义和使用各种自定义指标。
  • 高效的数据查询与转换
    Prometheus Adapter通过高效的查询和数据转换机制,可以或许快速处置处罚大量监控数据,并将其转换为Kubernetes可识别的格式。这对于大规模集群和高并发场景尤为重要,可以或许确保监控体系的实时性和可靠性。
  • 与Kubernetes的无缝集成
    作为Prometheus生态体系的一部分,Prometheus Adapter与Kubernetes有着紧密的集成。用户可以方便地在Kubernetes中部署和管理Prometheus Adapter,实现与现有监控体系的无缝对接,简化运维操纵。
  • 社区支持与扩展性
    Prometheus Adapter作为一个开源项目,有着活跃的社区支持。用户可以通过参与社区贡献,获取最新的功能更新和技术支持。别的,Prometheus Adapter还具备良好的扩展性,用户可以根据自身需求进行二次开辟和定制。
二、Prometheus Adapter的基本概念

什么是Prometheus Adapter

Prometheus Adapter是一个开源工具,用于将Prometheus中的监控数据转换为Kubernetes自定义指标。这一转换过程使得Kubernetes可以基于这些自定义指标进行主动扩展(Horizontal Pod Autoscaler,HPA)和其他自定义操纵。通过Prometheus Adapter,用户可以将复杂的业务指标引入到Kubernetes的监控和管理体系中,从而实现更灵活、更过细的资源管理。
Prometheus Adapter的出现源于对监控灵活性和扩展性的需求。在传统的监控体系中,监控指标通常固定在CPU、内存等基础资源上。然而,实际的业务需求往往更加复杂多样。例如,在电商网站中,监控订单处置处罚时间、用户请求数等业务指标往往比单纯的资源指标更为重要。Prometheus Adapter通过将Prometheus的强盛查询功能与Kubernetes的自定义指标相结合,提供了一个解决这一需求的有效方案。
Prometheus Adapter的架构与工作原理

Prometheus Adapter的架构计划旨在高效、可靠地实现监控数据的转换和传输。其焦点组件包括配置分析器、数据查询模块和指标转发模块。以下是对这些组件的详细分析:

  • 配置分析器
    配置分析器负责读取息争析用户定义的配置文件。这些配置文件中定义了Prometheus查询规则、自定义指标名称和转换逻辑。配置分析器将这些配置转化为内部数据结构,供后续模块使用。
  • 数据查询模块
    数据查询模块负责与Prometheus实例通讯,执行配置文件中定义的查询操纵。通过使用Prometheus的HTTP API,数据查询模块可以获取实时的监控数据。数据查询模块需要具备高效的数据处置处罚能力,以应对大规模集群和高并发情况下的查询需求。
  • 指标转发模块
    指标转发模块负责将查询到的数据转换为Kubernetes可识别的自定义指标格式,并将这些指标推送到Kubernetes API服务器。通过与Kubernetes的Metric API集成,指标转发模块确保这些自定义指标可以被Kubernetes中的其他组件(如HPA)识别和使用。
Prometheus Adapter与Prometheus的关系与区别

Prometheus Adapter与Prometheus之间存在紧密的关系,但两者的功能定位和使用场景有所不同:

  • 功能定位
    Prometheus是一个强盛的监控体系,负责数据的采集、存储和查询。它通过抓取各类监控目标的数据,提供丰富的查询和告警功能。Prometheus Adapter则是一个数据转换工具,负责将Prometheus中的监控数据转换为Kubernetes自定义指标。其焦点功能是将Prometheus强盛的查询能力引入到Kubernetes的监控和管理体系中。
  • 使用场景
    Prometheus主要用于各类体系和应用的监控,其使用场景包括基础设施监控、应用性能监控和业务指标监控等。Prometheus Adapter则主要用于Kubernetes情况中,特殊是在需要基于自定义指标进行主动扩展和其他自定义操纵的场景中。通过Prometheus Adapter,用户可以将复杂的业务指标引入到Kubernetes的主动化管理流程中。
  • 技术实现
    Prometheus通过抓取各类监控目标的HTTP端点,收集和存储时序数据。它的架构计划夸大高效的数据采集和查询能力。Prometheus Adapter则通过调用Prometheus的HTTP API,执行预定义的查询操纵,并将结果转换为Kubernetes自定义指标。两者在技术实现上有显着的区别,但通过API接口实现了紧密的集成。
三、部署与安装

情况要求

在部署Prometheus Adapter之前,需要确保以下情况和软件组件已经正确安装和配置:

  • Kubernetes集群

    • 版本要求:Kubernetes 1.14及以上
    • 集群内应至少包含一个主节点和多少工作节点
    • 已正确配置kubectl命令行工具,并可以或许正常访问集群

  • Prometheus实例

    • 版本要求:Prometheus 2.0及以上
    • Prometheus应已经部署并在集群中运行,确保可以或许采集和存储监控数据
    • 确保Prometheus的HTTP API可用,而且集群内的组件可以或许访问该API

  • Helm(可选):

    • 版本要求:Helm 3.0及以上
    • Helm用于简化Prometheus Adapter的安装和管理,但也可以通过手动部署YAML文件进行安装

安装步骤

Prometheus Adapter的安装过程可以通过两种方式完成:使用Helm Chart进行安装或手动部署YAML文件。以下将详细介绍这两种安装方式。
使用Helm Chart进行安装


  • 添加Prometheus Adapter的Helm仓库
    1. helm repo add prometheus-community https://prometheus-community.github.io/helm-charts
    2. helm repo update
    复制代码
  • 安装Prometheus Adapter
    1. helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace monitoring
    复制代码
  • 验证安装
    安装完成后,检查Prometheus Adapter的Pod是否成功启动:
    1. kubectl get pods -n monitoring -l app=prometheus-adapter
    复制代码
手动部署YAML文件


  • 下载Prometheus Adapter的部署文件
    可以从Prometheus Adapter的GitHub仓库获取最新的部署文件:
    1. git clone https://github.com/kubernetes-sigs/prometheus-adapter.git
    2. cd prometheus-adapter/deploy/manifests
    复制代码
  • 部署Prometheus Adapter
    1. kubectl apply -f .
    复制代码
  • 验证安装
    同样,检查Prometheus Adapter的Pod是否成功启动:
    1. kubectl get pods -n custom-metrics
    复制代码
配置详解

安装完成后,需要对Prometheus Adapter进行详细的配置,以确保其可以或许正确地与Prometheus和Kubernetes集成。配置主要通过一个YAML文件进行定义,其中包括Prometheus的地址、自定义查询规则、以及Kubernetes API服务器的相关设置。
配置文件结构

Prometheus Adapter的配置文件通常包含以下几个部分:

  • MetricMappings
    定义Prometheus查询规则和Kubernetes自定义指标的映射关系。
  • Rules
    定义自定义的Prometheus查询规则,包括指标名称、查询语法等。
  • ResourceRules
    定义与Kubernetes资源相关的查询规则,如节点、Pod等。
  • MetricsRelabelings
    定义如何从Prometheus查询结果中提取和转换指标。
以下是一个示例配置文件:
  1. apiVersion: v1
  2. kind: ConfigMap
  3. metadata:
  4.   name: custom-metrics-config
  5.   namespace: custom-metrics
  6. data:
  7.   config.yaml: |
  8.     rules:
  9.       default: false
  10.       seriesQuery: 'http_requests_total{namespace!="",pod!=""}'
  11.       resources:
  12.         overrides:
  13.           namespace: {resource: "namespace"}
  14.           pod: {resource: "pod"}
  15.       name:
  16.         matches: "^(.*)_total"
  17.         as: "${1}_per_second"
  18.       metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
复制代码
如何定义自定义的指标

在配置文件中,可以通过rules部分定义自定义的Prometheus查询规则。以下是一个详细的示例:
  1. rules:
  2.   - seriesQuery: 'http_requests_total{namespace!="",pod!=""}'
  3.     resources:
  4.       overrides:
  5.         namespace: {resource: "namespace"}
  6.         pod: {resource: "pod"}
  7.     name:
  8.       matches: "^(.*)_total"
  9.       as: "${1}_per_second"
  10.     metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
复制代码

  • seriesQuery:定义需要查询的Prometheus指标。
  • resources:定义如何将Prometheus指标中的标签映射到Kubernetes资源。
  • name:定义转换后的自定义指标名称。
  • metricsQuery:定义具体的Prometheus查询语法,用于计算自定义指标的值。
不同数据源的适配

除了Prometheus,Prometheus Adapter还可以适配其他数据源,如Thanos、VictoriaMetrics等。通过在配置文件中定义不同的数据源地址和查询规则,可以实现多数据源的灵活适配。例如:
  1. prometheus:
  2.   url: http://thanos-query:9090/
  3.   path: /api/v1/query
复制代码
常见问题与解决方案

在部署和配置Prometheus Adapter的过程中,可能会遇到一些常见问题。以下是几种典型问题及其解决方案:
无法连接到Prometheus实例

解决方案

  • 检查Prometheus的服务地址和端口,确保Prometheus Adapter的配置文件中地址正确无误。
  • 使用curl或wget命令测试Prometheus API的可访问性。
  1. curl http://prometheus-server:9090/api/v1/query?query=up
复制代码
自定义指标无法被Kubernetes识别

解决方案

  • 确保自定义查询规则符合Prometheus Adapter的配置规范,而且Prometheus中确实存在相应的指标数据。
  • 使用Prometheus的表达式浏览器(Expression Browser)验证查询语法,确保查询结果正确。
查询结果为空

解决方案

  • 检查Prometheus中的原始数据,确保数据确实存在而且符合查询条件。
  • 调整查询窗口或查询条件,确保可以或许匹配到预期的数据。
查询语法错误

解决方案

  • 使用Prometheus的表达式浏览器验证查询语法,确保语法正确。
  • 检查配置文件中的查询规则,确保没有语法错误或拼写错误。
  1. curl http://prometheus-server:9090/api/v1/query?query=sum(rate(http_requests_total[5m])) by (namespace, pod)
复制代码
验证配置

完成配置后,可以通过以下步骤验证Prometheus Adapter的工作情况:

  • 检查Prometheus Adapter的日志
    1. kubectl logs -n custom-metrics <prometheus-adapter-pod-name><prometheus-adapter-pod-name><prometheus-adapter-pod-name>
    复制代码
  • 验证自定义指标
    使用kubectl命令查看自定义指标是否成功导入Kubernetes API服务器:
    1. kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .
    复制代码
  • 测试HPA配置
    创建一个基于自定义指标的HPA资源,验证其是否可以或许正常工作:
    1. apiVersion: autoscaling/v2beta2
    2. kind: HorizontalPodAutoscaler
    3. metadata:
    4.   name: custom-metrics-hpa
    5.   namespace: default
    6. spec:
    7.   scaleTargetRef:
    8.     apiVersion: apps/v1
    9.     kind: Deployment
    10.     name: my-deployment
    11.   minReplicas: 1
    12.   maxReplicas: 10
    13.   metrics:
    14.   - type: Pods
    15.     pods:
    16.       metric:
    17.         name: http_requests_per_second
    18.       target:
    19.         type: AverageValue
    20.         averageValue: 100
    复制代码
通过以上步骤,可以验证Prometheus Adapter的安装和配置是否正确,以及自定义指标是否可以或许被Kubernetes正常识别和使用。
四、Prometheus Adapter的配置

配置文件详解

Prometheus Adapter的配置文件主要用于定义如何将Prometheus中的监控数据转换为Kubernetes可识别的自定义指标。配置文件通常使用YAML格式,包含多个部分,每一部分都负责特定的配置使命。
焦点配置组件


  • metricsRelabelings

    • 用于重新标记和筛选Prometheus中的原始指标。
    • 例子:
      1. metricsRelabelings:
      2.   - sourceLabels: [__name__]
      3.     separator: ;
      4.     regex: '(.*)'
      5.     targetLabel: metric_name
      6.     replacement: '${1}'
      7.     action: replace
      复制代码

  • rules

    • 定义如何从Prometheus查询中生成自定义指标。
    • 例子:
      1. rules:
      2.   - seriesQuery: 'http_requests_total{namespace!="",pod!=""}'
      3.     resources:
      4.       overrides:
      5.         namespace: {resource: "namespace"}
      6.         pod: {resource: "pod"}
      7.     name:
      8.       matches: "^(.*)_total"
      9.       as: "${1}_per_second"
      10.     metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
      复制代码

  • resourceRules

    • 用于定义与Kubernetes资源相关的查询规则,例如节点和Pod的指标。
    • 例子:
      1. resourceRules:
      2.   cpu:
      3.     name:
      4.       matches: "^(.*)_cpu_usage"
      5.       as: "custom_cpu_usage"
      6.     metricsQuery: 'sum(rate(container_cpu_usage_seconds_total{<<.LabelMatchers>>}[1m])) by (<<.GroupBy>>)'
      复制代码

如何定义自定义的指标

自定义指标的定义过程涉及编写Prometheus查询,并将其转换为Kubernetes自定义指标。以下是详细步骤:
步骤1:编写Prometheus查询

首先,在Prometheus中编写查询以获取所需的数据。例如,要获取每秒HTTP请求数,可以使用以下查询:
  1. sum(rate(http_requests_total[5m])) by (namespace, pod)
复制代码
步骤2:定义配置规则

在Prometheus Adapter的配置文件中,定义对应的查询规则和指标转换逻辑。例如:
  1. rules:
  2.   - seriesQuery: 'http_requests_total{namespace!="",pod!=""}'
  3.     resources:
  4.       overrides:
  5.         namespace: {resource: "namespace"}
  6.         pod: {resource: "pod"}
  7.     name:
  8.       matches: "^(.*)_total"
  9.       as: "${1}_per_second"
  10.     metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
复制代码
上述配置中:

  • seriesQuery:指定Prometheus中的原始指标。
  • resources:定义如何将Prometheus指标中的标签映射到Kubernetes资源。
  • name:指定自定义指标的命名规则。
  • metricsQuery:定义Prometheus查询语法,计算自定义指标的值。
步骤3:部署配置文件

将配置文件部署到Kubernetes中:
  1. kubectl apply -f custom-metrics-config.yaml
复制代码
不同数据源的适配

Prometheus Adapter不仅可以与Prometheus集成,还可以适配其他数据源,例如Thanos和VictoriaMetrics。配置方法类似,通过定义不同的数据源地址和查询规则,实现灵活的多数据源适配。
适配Thanos

Thanos是一个用于Prometheus高可用性、长时间存储和多集群聚合的解决方案。可以通过以下配置适配Thanos:
  1. prometheus:
  2.   url: http://thanos-query:9090/
  3.   path: /api/v1/query
复制代码
在这种配置中,url指向Thanos查询服务的地址,path指定查询API路径。
适配VictoriaMetrics

VictoriaMetrics是一个高性能的开源时间序列数据库,兼容Prometheus。适配VictoriaMetrics的配置示例如下:
  1. prometheus:
  2.   url: http://victoriametrics:8428/
  3.   path: /api/v1/query
复制代码
高级配置技巧

动态标签处置处罚

Prometheus Adapter支持动态标签处置处罚,通过metricsRelabelings和rules部分的配置,可以灵活处置处罚Prometheus指标中的标签。例如:
  1. metricsRelabelings:
  2.   - sourceLabels: [__name__]
  3.     separator: ;
  4.     regex: '(.*)'
  5.     targetLabel: metric_name
  6.     replacement: '${1}'
  7.     action: replace
复制代码
分片与聚合

在大规模集群中,可以通太过片和聚合策略,提升查询性能和数据处置处罚服从。例如:
  1. rules:
  2.   - seriesQuery: 'container_cpu_usage_seconds_total{namespace!="",pod!=""}'
  3.     resources:
  4.       overrides:
  5.         namespace: {resource: "namespace"}
  6.         pod: {resource: "pod"}
  7.     name:
  8.       matches: "^(.*)_cpu_usage_seconds_total"
  9.       as: "${1}_cpu_usage"
  10.     metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
复制代码
上述配置通过sum(rate(...))实现数据的聚合处置处罚,适用于大规模数据场景。
常见问题与解决方案

在配置和使用Prometheus Adapter时,可能会遇到一些常见问题。以下是几种典型问题及其解决方案:
自定义指标查询失败

问题形貌:配置的自定义指标无法在Kubernetes中查询到。
解决方案

  • 检查Prometheus查询语法,确保其在Prometheus表达式浏览器中可以或许返回预期结果。
  • 确认Prometheus Adapter配置文件的语法和内容正确。
  • 查看Prometheus Adapter的日志,排查错误信息。
  1. kubectl logs -n custom-metrics <prometheus-adapter-pod-name><prometheus-adapter-pod-name><prometheus-adapter-pod-name>
复制代码
连接Prometheus失败

问题形貌:Prometheus Adapter无法连接到Prometheus实例。
解决方案

  • 确认Prometheus实例的地址和端口正确无误。
  • 检查网络连接,确保Prometheus Adapter所在Pod可以或许访问Prometheus实例。
  1. curl http://prometheus-server:9090/api/v1/query?query=up
复制代码
指标名称冲突

问题形貌:配置的自定义指标名称与现有指标名称冲突。
解决方案

  • 在定义自定义指标时,使用独特的命名规则,避免与现有指标名称重复。
  • 通过name配置部分,灵活调整自定义指标名称。
  1. name:
  2.   matches: "^(.*)_total"
  3.   as: "${1}_custom_per_second"
复制代码
验证配置

完成配置后,可以通过以下步骤验证Prometheus Adapter的工作情况:

  • 检查Prometheus Adapter的日志
    1. kubectl logs -n custom-metrics <prometheus-adapter-pod-name><prometheus-adapter-pod-name><prometheus-adapter-pod-name>
    复制代码
  • 验证自定义指标
    使用kubectl命令查看自定义指标是否成功导入Kubernetes API服务器:
    1. kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .
    复制代码
  • 测试HPA配置
    创建一个基于自定义指标的HPA资源,验证其是否可以或许正常工作:
    1. apiVersion: autoscaling/v2beta2
    2. kind: HorizontalPodAutoscaler
    3. metadata:
    4.   name: custom-metrics-hpa
    5.   namespace: default
    6. spec:
    7.   scaleTargetRef:
    8.     apiVersion: apps/v1
    9.     kind: Deployment
    10.     name: my-deployment
    11.   minReplicas: 1
    12.   maxReplicas: 10
    13.   metrics:
    14.   - type: Pods
    15.     pods:
    16.       metric:
    17.         name: http_requests_per_second
    18.       target:
    19.         type: AverageValue
    20.         averageValue: 100
    复制代码
通过以上步骤,可以验证Prometheus Adapter的配置是否正确,自定义指标是否可以或许被Kubernetes正常识别和使用。
五、Prometheus Adapter实践案例

在这一部分,我们将通过实际案例展示Prometheus Adapter的应用,帮助用户明白如安在不同场景中配置和使用Prometheus Adapter,以满足复杂的监控需求。以下是三个详细的实践案例。
案例一:Kubernetes集成Prometheus Adapter

背景

在Kubernetes集群中,水平主动扩展(HPA)主要依靠于CPU和内存的使用情况。然而,在实际应用中,许多业务场景需要基于其他指标(如请求数、响应时间等)进行扩展。通过Prometheus Adapter,可以将自定义的Prometheus指标引入到Kubernetes HPA中,实现更精致的扩展策略。
目标

通过Prometheus Adapter,将HTTP请求数这一业务指标引入到Kubernetes HPA中,实现基于请求数的主动扩展。
步骤


  • 配置Prometheus Adapter
    首先,编写Prometheus Adapter的配置文件,定义从Prometheus中获取HTTP请求数的查询规则。
    1. apiVersion: v1
    2. kind: ConfigMap
    3. metadata:
    4.   name: custom-metrics-config
    5.   namespace: custom-metrics
    6. data:
    7.   config.yaml: |
    8.     rules:
    9.       - seriesQuery: 'http_requests_total{namespace!="",pod!=""}'
    10.         resources:
    11.           overrides:
    12.             namespace: {resource: "namespace"}
    13.             pod: {resource: "pod"}
    14.         name:
    15.           matches: "^(.*)_total"
    16.           as: "${1}_per_second"
    17.         metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
    复制代码
    部署配置文件:
    1. kubectl apply -f custom-metrics-config.yaml
    复制代码
  • 部署Prometheus Adapter
    使用Helm或YAML文件部署Prometheus Adapter。
    1. helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace custom-metrics
    复制代码
  • 验证自定义指标
    确认Prometheus Adapter已经成功导入自定义指标:
    1. kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .
    复制代码
  • 配置HPA
    创建一个HPA资源,基于自定义的HTTP请求数指标进行扩展:
    1. apiVersion: autoscaling/v2beta2
    2. kind: HorizontalPodAutoscaler
    3. metadata:
    4.   name: http-requests-hpa
    5.   namespace: default
    6. spec:
    7.   scaleTargetRef:
    8.     apiVersion: apps/v1
    9.     kind: Deployment
    10.     name: my-deployment
    11.   minReplicas: 1
    12.   maxReplicas: 10
    13.   metrics:
    14.   - type: Pods
    15.     pods:
    16.       metric:
    17.         name: http_requests_per_second
    18.       target:
    19.         type: AverageValue
    20.         averageValue: 100
    复制代码
    部署HPA配置文件:
    1. kubectl apply -f http-requests-hpa.yaml
    复制代码
效果

通过上述步骤,Kubernetes集群中的应用将基于HTTP请求数的变革进行主动扩展,从而确保在高负载时有足够的资源来处置处罚请求,同时在低负载时释放资源,优化资源利用率。
案例二:结合自定义指标进行业务监控

背景

在实际业务场景中,某电商平台需要监控每秒订单数,以确保在高峰期可以或许及时扩展资源,避免体系过载。
目标

通过Prometheus Adapter,将订单数这一业务指标引入到Kubernetes HPA中,实现基于订单数的主动扩展。
步骤


  • 配置Prometheus Adapter
    编写Prometheus Adapter的配置文件,定义从Prometheus中获取订单数的查询规则。
    1. apiVersion: v1
    2. kind: ConfigMap
    3. metadata:
    4.   name: order-metrics-config
    5.   namespace: custom-metrics
    6. data:
    7.   config.yaml: |
    8.     rules:
    9.       - seriesQuery: 'orders_total{namespace!="",pod!=""}'
    10.         resources:
    11.           overrides:
    12.             namespace: {resource: "namespace"}
    13.             pod: {resource: "pod"}
    14.         name:
    15.           matches: "^(.*)_total"
    16.           as: "${1}_per_second"
    17.         metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
    复制代码
    部署配置文件:
    1. kubectl apply -f order-metrics-config.yaml
    复制代码
  • 部署Prometheus Adapter
    使用Helm或YAML文件部署Prometheus Adapter。
    1. helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace custom-metrics
    复制代码
  • 验证自定义指标
    确认Prometheus Adapter已经成功导入自定义指标:
    1. kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .
    复制代码
  • 配置HPA
    创建一个HPA资源,基于自定义的订单数指标进行扩展:
    1. apiVersion: autoscaling/v2beta2
    2. kind: HorizontalPodAutoscaler
    3. metadata:
    4.   name: orders-hpa
    5.   namespace: default
    6. spec:
    7.   scaleTargetRef:
    8.     apiVersion: apps/v1
    9.     kind: Deployment
    10.     name: order-service
    11.   minReplicas: 2
    12.   maxReplicas: 20
    13.   metrics:
    14.   - type: Pods
    15.     pods:
    16.       metric:
    17.         name: orders_per_second
    18.       target:
    19.         type: AverageValue
    20.         averageValue: 50
    复制代码
    部署HPA配置文件:
    1. kubectl apply -f orders-hpa.yaml
    复制代码
效果

通过上述步骤,电商平台的订单处置处罚服务将基于每秒订单数的变革进行主动扩展,确保在订单高峰期可以或许及时扩展资源,保证服务的可用性和响应速率。
案例三:多集群情况下的Prometheus Adapter应用

背景

在多集群情况中,需要同一监控和管理不同集群的资源和应用。通过Prometheus Adapter,可以实现跨集群的同一监控和管理。
目标

通过Prometheus Adapter,实现多个Kubernetes集群的同一监控和管理。
步骤


  • 配置多集群情况
    假设已有两个Kubernetes集群:Cluster A和Cluster B,分别部署了Prometheus实例。
  • 在每个集群中部署Prometheus Adapter
    在Cluster A中:
    1. helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace custom-metrics
    复制代码
    在Cluster B中:
    1. helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace custom-metrics
    复制代码
  • 配置跨集群Prometheus查询
    在每个集群的Prometheus Adapter配置文件中,分别定义从对方集群获取数据的查询规则。例如,在Cluster A的配置文件中:
    1. prometheus:
    2.   url: http://prometheus-cluster-b:9090/
    3.   path: /api/v1/query
    复制代码
    在Cluster B的配置文件中:
    1. prometheus:
    2.   url: http://prometheus-cluster-a:9090/
    3.   path: /api/v1/query
    复制代码
  • 定义跨集群自定义指标
    在Cluster A的Prometheus Adapter配置文件中,定义从Cluster B获取的指标查询规则:
    1. rules:
    2.   - seriesQuery: 'cluster_b_http_requests_total{namespace!="",pod!=""}'
    3.     resources:
    4.       overrides:
    5.         namespace: {resource: "namespace"}
    6.         pod: {resource: "pod"}
    7.     name:
    8.       matches: "^(.*)_total"
    9.       as: "${1}_per_second"
    10.     metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
    复制代码
    在Cluster B的Prometheus Adapter配置文件中,定义从Cluster A获取的指标查询规则:
    1. rules:
    2.   - seriesQuery: 'cluster_a_http_requests_total{namespace!="",pod!=""}'
    3.     resources:
    4.       overrides:
    5.         namespace: {resource: "namespace"}
    6.         pod: {resource: "pod"}
    7.     name:
    8.       matches: "^(.*)_total"
    9.       as: "${1}_per_second"
    10.     metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'
    复制代码
  • 验证配置
    在两个集群中,分别验证Prometheus Adapter是否成功导入跨集群自定义指标:
    1. kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .
    复制代码
效果

通过上述配置,两个集群中的Prometheus Adapter可以或许互相获取对方的监控数据,实现跨集群的同一监控和管理。在多集群情况中,用户可以通过自定义指标,实现对不同集群资源的灵活管理和主动扩展,进步体系的团体监控服从和响应能力。
如有帮助,请多关注
TeahLead KrisChang,10+年的互联网和人工智能从业经验,10年+技术和业务团队管理经验,同济软件工程本科,复旦工程管理硕士,阿里云认证云服务资深架构师,上亿营收AI产物业务负责人。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

飞不高

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表