ceph写满,nearfull osd解决思绪
征象:ceph写满,ceph-s 中nearfull osd办法:调解osd weight权重,举行数据平衡
步调:1,实行ceph osd df可以看到当前的pg在osd上分布情况以及利用率情况
2,防止数据平衡过程中,其他osd 数据out,及deep-scrub操作出现大量block IO。设置集群noout以及nodeep-scrub标签:
ceph osd set noout
ceph osd set nodeep-scrub
3,集群节点,实行ceph osd reweight-by-utilization <var 值*100>。把var值1.18以上的osd举行平衡调解。
ceph osd reweight-by-utilization 118
注释:
手动调解
1、找到空间利用率较高的OSD,然后逐个举行调解
ceph osd reweight {osd_numeric_id} {reweight}
上述命令中各个参数寄义如下:
osd_numeric_id:OSD对应的数字ID
reweight:待设置的OSD的reweight。reweight取值越小,将使更多的数据从对应的OSD迁出。
批量调解
现在有两种模式举行批量调解:
1、按照OSD当前空间利用率(reweight-by-utilization);
2、按照PG在OSD之间的分布(reweight-by-pg);
4,等待数据平衡,时间黑白取决于数据量多少以及数据平衡程度
5,实行完成ceph osd df | sort -rnk 7检察osd利用率,确保osd都在85以下,没有到达预期,重复实行2-3
6,取消noout和nodeep-scrub标签,实行ceph –s确认实行乐成;
ceph osd unset noout
ceph osd unset nodeep-scrub
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]