论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
企业信息化/数字化
›
ERP
›
SAP
›
网络题目排查必备利器:Pingmesh
网络题目排查必备利器:Pingmesh
守听
金牌会员
|
2024-5-12 22:20:56
|
显示全部楼层
|
阅读模式
楼主
主题
997
|
帖子
997
|
积分
2991
配景
当今的数字化世界离不开无处不在的网络毗连。无论是一样平常生活中的社交媒体、电子商务,还是企业级应用程序和云服务,我们对网络的依赖程度越来越高。然而,网络的可靠性和性能往往是一个复杂的题目,尤其是在具有大规模分布式架构的系统中。
在已往,网络监控主要依赖于传统的点对点(point-to-point)方式,通过单独的监控工具对网络路径进行测试。然而,这种方法往往只能提供有限的信息,并且无法全面评估整个网络的健康状况。为了更好地了解网络的运行情况以及及时发现潜伏的题目,Pingmesh 技术应运而生。
Pingmesh 的提出最初是来自微软,在微软内部 Pingmesh 每天会记录 24TB 数据,进行 2000 亿次 ping 探测,通过这些数据,微软可以很好的进行网络故障判定和及时的修复。
下面是 Flashcat Pingmesh 的页面样例,可以清晰地看到各个机房之间的网络情况,也可以看到各个机柜或交换机之间的情况:
业界方案
业界对Pingmesh的实现大都基于微软的一则论文为基础,做出了一些改造和升级。原微软Pingmesh论文所在: 《
Pingmesh: A Large-Scale System for Data Center Network Latency Measurement and Analysis
》。
常见的数据中心网络拓扑:
在这样的架构中,有多个数据中心,数据中心之间有专线连通,在数据中心内部有多个Spine、Leaf、ToR交换机,在一些架构中,leaf交换机也会直接充当ToR作为服务器接入交换机,在 ToR 交换机下有大量服务器毗连; 因此,pingmesh 能力就分为3 个级别:
在机架内部,让所有的 server 相互 ping,每个 server ping 机架内其他 N-1 个 server
在机架之间,则每个机架选几个 server ping 其他机架的 server,包管 server 所属的 ToR 不同
在数据中心之间,则选择不同的数据中心的几个不同机架的 server 来ping
Pingmesh 架构设计
Controller
Controller 主要负责生成 pinglist 文件,这个文件是 XML 格式的,pinglist 的生成是很重要的,必要根据实际的数据中心网络拓扑进行及时更新。 在生成 pinglist 时, Controller 为了制止开销,分为3 个级别:
在机架内部,让所有的 server 相互 ping,每个 server ping (N-1) 个 server
在机架之间,则每个机架选几个 server ping 其他机架的 server,包管 server 所属的 ToR 不同
在数据中心之间,则选择不同的数据中心的几个不同机架的 server 来ping
Controller 在生成 pinglist 文件后,通过 HTTP 提供出去,Agent 会定期获取 pinglist 来更新 agent 自己的设置,也就是我们说的“拉”模式。Controller 必要包管高可用,因此必要在 VIP 后面设置多个实例,每个实例的算法一致,pinglist 文件内容也一致,包管可用性。
Agent
微软数据中心的每个 server 都会运行 Agent,用来真正做 ping 动作的服务。为了包管获取结果与真实的服务一致,Pingmesh 没有采取 ICMP ping,而是采取的 TCP/HTTP ping。以是每个 Agent 既是 Server 也是 Client。每个 ping 动作都开启一个新的毗连,主要为了淘汰 Pingmesh 造成的 TCP 并发。 Agent 要包管自己是可靠的,不会造成一些严重的结果,其次要包管自己使用的资源要足够的少,毕竟要运行在每个 server 上。两个server ping 的周期最小是 10s,Packet 大小最大 64kb。针对灵活设置的需求,Agent 会定期去 Controller 上拉取 pinglist,如果 3 次拉取不到,那么就会删除本地已有 pinglist,制止 ping 动作。 在进行 ping 动作后,会将结果保存在内存中,当保存结果超过肯定阈值大概到达了超时时间,就将结果上传到 Cosmos 中用于分析,如果上传失败,会有重试,超过重试次数则将数据抛弃,包管 Agent 的内存使用。
网络状况
根据论文中提到的,不同负载的数据中心的数据是有很大差异的,在 P99.9 时延时大概在 10-20ms,在 P99.99 延时大概在100+ms 。关于丢包率的计算,由于没有用 ICMP ping 的方式,以是这里是一种新的计算方式,(一次失败 + 二次失败)次数/(成功次数)= 丢包率。这里是每次 ping 的 timeout 是 3s,windows 重传机制等待时间是 3s,下一次 ping 的 timeout 时间是 3s,加一起也就是 9s。以是这里跟 Agent 最小探测周期 10s 是有关联的。二次失败的时间就是 (2 * RTT)+ RTO 时间。 Pingmesh 的判断依据有两个,如果超过就报警:
延时超过 5ms
丢包率超过 10^(-3)
在论文中还提到了其他的网络故障场景,交换机的静默丢包。有可能是 A 可以连通 B,但是不能连通 C。另有可能是 A 的 i 端口可以连通 B 的 j 端口,但是 A 的 m 端口不能连通 B 的 j 端口,这些都属于交换机的静默丢包的范畴。Pingmesh 通过统计这种数据,然后给交换机进行打分,当超过肯定阈值时就会通过 Autopilot 来主动重启交换机,恢复交换机的能力。
Flashcat-Pingmesh 方案
业界方案大都实现了各自的ping-agent的能力,但对于controller生成pinglist的能力并未有好的开源方案。同时我们和一些客户交流,了解到现在数据中心架构与传统的leaf-tor-server架构不太一样,传同一个机顶交换机下server都在一个机柜下,现在数据中心一个交换机下机器可能在不同机柜,这种情况如果还是按交换机维度进行探测,当server机器探测故障后,无法快速定位到机器位置。因此,我们在开发之前就针对Tor以及机柜维度进行了设计。
Pimgesh应具备哪些能力?
具备最基础的Ping探测能力,即ICMP协议支持,同时也应支持TCP、UDP等协议的端口探测;
简化页面用户设置,用户只需设置数据中心名字、交换机CIDR值,数据中心支持的探测协议和端口等关键信息;
数据中心会有很多机柜、交换机和机器,怎样制止ping风暴,因此需支持设置选取部分机柜、交换和机器进行探测,及探测比例设置,用户可灵活设置数据中心参与探测的交换机或机柜比例数,以及每个交换机或机柜下参与探测的Server比例数;
每个数据中心内部、默认所有机柜或交换机之间进行探测(Server比例数依旧生效)
每个数据中心之间,用户可设置默认规则,即两两数据中心之间,按照设置的协议进行探测。当然,用户也可自定义哪些数据中心之间按照所选协议进行探测,此时机柜或交换机以及Server比例数依旧生效;
探测结果进行有效聚合展示,多个数据中心有很多机柜或交换机以及机器,分三层布局展示探测结果,第一层展示所有数据中心之间的探测链路拓扑以及探测值、第二层展示数据中心内部每个机柜或交换机之间的探测拓扑和结果、第三层展示机柜或交换机下面所选Server之间的探测拓扑和结果;
Ping故障一键制止探测的止损能力;
探测机器故障后,主动重新选替补机器能力;
数据中心设置变更后,能及时主动以新设置重新生成pinglist;
支持简便地设置报警规则;
探测结果写入支持prometheus协议的时序库中;
交换机和机柜模式设置差异
交换机模式,页面用户只需设置交换CIDR值即可,无需手动注册Server IP,我们会借助 Categraf 的心跳功能,主动判断出server ip应归属哪个交换机。
机柜模式,这种方式一般适用于客户环境中有自己的CMDB系统,可将其CMDB系统中的数据中心、机柜和机器关系通过OpenApi注册到Pingmesh系统中。
Pingmesh 架构设计:
Apiserver
提供OpenApi:
用于注册、变更、查询数据中心原信息、探测规则(如:数据中心、探测协议、Tor交换机CIDR/机柜名、机器IP和机器名(机柜方式)、 探测百分比设置、数据中心之间探测规则设置 )。
数据中心三层布局拓扑图展示,以及历史探测曲线图、报警规则设置、一键降级等API。
提供给Categraf使用的查询pinglist接口。
Controller
生成pinglist的核心控制器逻辑,它必要定时从DB中查询最新的设置和规则,判断是否有发生变更,如果发生变更则重新执行pinglist生成逻辑。 从DB中查到设置后,判断是机柜模式还是交换机模式,由于这两种方式,其筛查Server IP的逻辑会有差异,之后需计算出每个数据中心,待探测的机柜或交换机是哪些,以及其下的Server Ip分别是多少,做好数据预备工作。接下来查察探测规则(数据中心内、数据中心之间),根据这些规则我们对每一台发起探测的Server 生成探测设置,并记录到DB中(由于我们底层真正执行探测任务的是Categraf Agent,需根据不同协议所使用的插件,生成不同的设置文件)。
此外,我们需新起一个协程,定时去对比新用户设置和已生成的pinglist是否一致,由于可能在我们生成新的pinglist后的一段时间内,用户变更或新增、删除了数据中心设置和规则,那必要将已生成的pinglist进行对比整理,制止用户设置变更后,依旧使用老的设置去探测,导致数据不准题目。
实现过程中还必要考虑另一个题目,数据中心有很多机器,但不是所有机器都装有categraf,或装有categraf但进程退出了等情况,如果我们只是单纯地按所有的机器数量去筛选一堆Server IP,那很有可能选出的机器都没有装agent,那也就无法进行探测和发现题目了,因此我们必要结合categraf自身的心跳上报的能力,来过滤出可用的Server IP。到了这里,我们可能会想到另一个题目,由于我们是按比例筛选机器的,而当某台机器down掉后,原本选了10台,现在只有9台可用机器了,这就会和用户设置的参与探测的服务器比例出现diff。出现这种情况,那我们就必要重新选一台可用机器补上去。当选择出来这批机器后,后面都必要一直用这些机器,除非碰到重新选的情况,这样可以保障我们指标量是固定的,同时也能满意探测的比例需求。
探测Agent
Pingmesh底层真正执行探测逻辑的是我们的Categraf,它是一个开源的项目,插件丰富、设置简单,这里就不做过多介绍了,大家可在github上搜索下即可。Categraf 会定时来中心端拉取本机的收罗插件设置,当然,可能部署categraf的集群很多,这里中心端会将设置文件缓存到Redis中,低落对DB的查询压力,并提升接口查询效率。最终categraf会拿到最新的插件设置并进行探测,之后将探测结果上报给中心端,用于数据展示和报警设置使用。
额外说一点,如果存在边缘机房,那categraf可以将探测结果上报给边缘机房的 n9e-edge 模块,之后报警就可在这边缘机房内部闭环了,而且edge 会主动将指标转发给时序库,用于页面展示使用。
小结
Pingmesh 在复杂网络题目的排查中发挥了巨大的作用,本文分享了 Pingmesh 的实现思路,欢迎大家
联系我们试用
。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
守听
金牌会员
这个人很懒什么都没写!
楼主热帖
【网络编程】从零开始搭建一个开源博客 ...
Python学习:import的正确用法
Vulnhub靶机-Al-Web-1
报错building for iOS Simulator, but ...
jdbc如何连接sqlserver数据库呢? ...
【CSDN云VS腾讯云】要不然怎么说CSDN开 ...
TCP协议
面试官:BIO、NIO、AIO是什么,他们有 ...
通达OA,长途下令执行漏洞复现 ...
如何成为一名开发人员——第 3 部分: ...
标签云
AI
运维
CIO
存储
服务器
快速回复
返回顶部
返回列表