无需重新学习,使用 Kibana 查询/可视化 SLS 数据

打印 上一主题 下一主题

主题 831|帖子 831|积分 2493

1. 场景

现在通过 SLS 的 ES 兼容本领,可以很方便地实现用 Kibana 来查询和可视化 SLS 的数据。对于从 ES 迁徙到 SLS 的用户可以继续保留原来的 Kibana 使用风俗。下面来演示如何通过 Kibana 来访问 SLS。
2. 使用方法

部署架构

这里蓝色部分是必要客户端部署的组件。

  • Kibana 就是用来可视化的
  • Proxy 用来区分 Kibana 的请求,将 SLS 相关的转发到 SLS 的 ES 兼容接口
  • Elasticsearch 用来存 Kibana 的 Meta
等等,为什么这里还必要一个 ES? 缘故起因是 SLS 的 Logstore 不支持更新,很多 Meta 类的数据不适合存在 SLS。
而 Kibana 有很多元数据要存储,好比 Kibana 的图表配置、Index Pattern 配置等。
因此必要部署一个 ES 实例,这个 ES 实例只会存 Kibana 的元数据,所以它的资源占用非常小。
3. 部署过程

使用 docker-compose 部署

相关准备
安装好 docker 和 docker compose,下面的操纵步骤对于 podman compose 的方式一样实用。
创建相关目录
  1. mkdir sls-kibaba # 创建一个新的目录
  2. cd sls-kibaba # 进入
  3. mkdir es_data # 创建一个目录用于放es的数据
复制代码
配置
在 sls-kibana 目录下下创建 docker-compose.yml 文件。
内容如下:(下面标识为此处请修改的地方,请根据实际情况做一下修改)
  1. version: '3'
  2. services:
  3.   es:
  4.     image: elasticsearch:7.17.3
  5.     environment:
  6.       - "discovery.type=single-node"
  7.       - "ES_JAVA_OPTS=-Xms2G -Xmx2G"
  8.       - ELASTIC_USERNAME=elastic
  9.       - ELASTIC_PASSWORD=ES密码 # 此处请修改
  10.       - xpack.security.enabled=true
  11.     volumes:
  12.       - ./data:/usr/share/elasticsearch/data
  13.     networks:
  14.       - es717net
  15.   kproxy:
  16.     image: sls-registry.cn-hangzhou.cr.aliyuncs.com/kproxy/kproxy:1.9d
  17.     depends_on:
  18.       - es
  19.     environment:
  20.       - ES_ENDPOINT=es:9200
  21.       - SLS_ENDPOINT=https://etl-dev.cn-huhehaote.log.aliyuncs.com/es/ # 此处请修改,规则为 https://${project名}.${slsEnpoint名}/es/
  22.       - SLS_PROJECT=etl-dev # 此处请修改
  23.       - SLS_ACCESS_KEY_ID=ALIYUN_ACCESS_KEY_ID # 此处请修改, 确保有读logstore的权限
  24.       - SLS_ACCESS_KEY_SECRET=ALIYUN_ACCESS_KEY_SECRET # 此处请修改为真实accessKeySecret
  25.     networks:
  26.       - es717net
  27.   kibana:
  28.     image: kibana:7.17.3
  29.     depends_on:
  30.       - kproxy
  31.     environment:
  32.       - ELASTICSEARCH_HOSTS=http://kproxy:9201
  33.       - ELASTICSEARCH_USERNAME=elastic
  34.       - ELASTICSEARCH_PASSWORD=ES密码 # 此处请修改(跟前面设置的ES密码相同)
  35.       - XPACK_MONITORING_UI_CONTAINER_ELASTICSEARCH_ENABLED=true
  36.     ports:
  37.       - "5601:5601"
  38.     networks:
  39.       - es717net
  40. networks:
  41.   es717net:
  42.     ipam:
  43.       driver: default
复制代码
启动当地 Kibana 服务:
  1. docker compose up -d
复制代码
检查 docker compose 启动状态:
  1. docker compose ps
复制代码
4. 访问 Kibana

欣赏器访问 http://$(部署 Kibaba 的 IP 地址}:5601,输入账号密码登录 Kibana。
4.1 配置 Index Pattern

选择 Stack Managment:

点击 Index Pattern Tab,在 Index Pattern 列表中看不到数据是正常的,日志服务的 Logstore 映射到 Kibana 中的 Index Patterns 必要手动创建。在提示框中单击 create an index pattern against hidden or system indices.

在 Create Index Pattern 页,Name 填写格式为 ${project}.${logstore},留意这里比必须完全填写,不支持*匹配。

点完成 Create Index Pattern 完成 Pattern 创建,然后进入 Discover 里就可以查询数据了。

4.2 查询 Logstore


Kibana 的查询框中可以选择 KQL 和 Lucene 两种方式,SLS 的 ES 兼容接口都举行了支持。
简朴的 host 查询:

复杂一些 query、filter 都可以查询。

4.3 可视化图表

那么除了查询,可以用 Kibana 来做可视化吗?当然可以! 选择 Dashboard。

进入后点击 Create Dashboard 来创建一个图表。

通过设置,横轴、纵轴的字段和统计方式,可以很方便地做出想要图。
好比最简朴的统计一个请求访问数的柱状图,时间为横轴,记载数为纵轴。

现在我想看到每个柱子中,status 的情况,可以选择 Break down by 的字段为 status。

4.4 FAQ

1)为什么在 Kibana 上看不到 SLS 上的 Logstore?
SLS 上的 Logstore 是通过 Kibana 的 Index Pattern 方式来查询的,而 SLS 上的 Logstore 必要通过手工创建 Index Pattern 的方式来创建。
2)Kibana 上创建 Index Pattern 的时候,不做输入的时候,为什么没有提示?
这个是正常的,在左侧输入正确的 project.project.{project}.{logstore} (这里project、project、{project}、{logstore}需替换成真实值)后,会展示:

3)Kibana 上创建 Index Pattern 的时候支持*通配吗?
不支持通配,必要完备填写 project.project.{project}.{logstore},好比 etl-dev.accesslog 这种方式来匹配。

4)为什么 Kibana 上创建 Logstore 的 Index Pattern 时右侧没有提示出现?

 
有几种可能:
1. SLS 的 ES 兼容地址不对,在 kproxy 中配置时,规则为 https://${project名}.${slsEnpoint名}/es/,留意 /es/ 这个后缀。
2. 对应的 accessKeyId、accessKeySerect 没有访问 SLS Logstore 的权限(读权限)。
5)我有多个 SLS Project 想在 Kibana 上访问,可以做到吗?
可以的,关键在于 kproxy 的配置。SLS_PROJECT、SLS_ENDPOINT、SLS_ACCESS_KEY_ID、SLS_ACCESS_KEY_SECRET 为第一个 Project 相关的变量名称。从第二个 Project 开始,其相关变量名称需加数字后缀,例如 SLS_PROJECT2、SLS_ENDPOINT2、SLS_ACCESS_KEY_ID2、SLS_ACCESS_KEY_SECRET2。如果背面某 Project 的 AccessKey 与第一个 Project 相同,则该 Project 对应的 AccessKey 可省略配置。
举例,假设另外一个 Project 要被 Kibaba 查,那么作为第二个 kproxy:
  1. - SLS_ENDPOINT2=https://etl-dev2.cn-huhehaote.log.aliyuncs.com/es/
  2. - SLS_PROJECT2=etl-dev2
  3. - SLS_ACCESS_KEY_ID2=etl-dev2对应的accessKeyId  #如果和SLS_ACCESS_KEY_ID2一样可以不加
  4. - SLS_ACCESS_KEY_SECRET2=etl-dev2对应的accessKeyKey #如果和SLS_ACCESS_KEY_ID2一样可以不加
复制代码
5. 小结

本文演示了使用 Kibana 连接 SLS ES 兼容接口举行查询和分析的方法,对于 Kibana 的 query 和可视化本领都能正常对接和使用。适合下面两种情况:

  • 如果您之前的使用风俗是 Kibana,而日志已经存在了阿里云 SLS 上,可以使用该方案对接。
  • 如果您现在使用的是标准的 ELK 方案,但厌倦了 ES 使用时维护工作或者调优,不妨试一试阿里云 SLS 的方案(c++ 底层、Serverless、低本钱、ES 兼容)。
期待您的使用。
参考文档:
SLS 兼容 ES 介绍
使用 Kibana 连接 ES 兼容接口
作者:荆磊
原文链接
本文为阿里云原创内容,未经允许不得转载。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

灌篮少年

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表