IT评测·应用市场-qidao123.com

标题: kubernetes负载感知调度 [打印本页]

作者: 民工心事    时间: 2024-8-15 01:31
标题: kubernetes负载感知调度
背景

kubernetes 的原生调度器只能通过资源哀求来调度 pod,这很容易造成一系列负载不均的问题,
并且很多情况下业务方都是超额申请资源,因此在原生调度器时代我们针对业务的特性以及评估品级来设置 Requests/Limit 比例来提升资源利用服从。
在这种场景下依然存在很多问题:
本文重要讨论假如解决问题一,在线集群内部提升资源利用率
在线集群 Cpu 离散系数0.45,整个集群高峰时 Cpu 利用率仅25%左右;下图 Cpu 使用率离散图:

破局

基于上述情况,高峰时 Cpu 利用率仅25%肯定不是合理的情况,业界做的好的50%+。想要继续提升利用率,必须解决节点负载不均问题:
实践

关注的两个开源项目:
Koordinator: https://koordinator.sh/
Crane: https://gocrane.io/
相对于 Koordinator 专门为混部而生的软件,Crane以 Finops 为出发点,二者相比Koordinator更适合我们,在离线混部也是下一步计划。
调研测试
上线之后:

遇到的问题

需要前置打散热门节点,这就需要对应用进行资源画像,在调度中分散这种类型的应用,制止业务高峰热门节点的产生
2. 在1中的情况下,扩容部分节点缓解集群压力时,新上的节点会迅速被热门Pod占满,导致节点负载升高,再次触发重调度
调解调度插件中负载均衡打分插件的权重,让节点负载更均衡,制止热门节点问题
3. 找到合适的节点规格,小规格节点,更容器出现热门节点
在我们的业务场景下下,当前来看48c节点热门节点出现几率小于32c

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/) Powered by Discuz! X3.4