软件界说存储在VMware假造化环境中的使用

打印 上一主题 下一主题

主题 1769|帖子 1769|积分 5307

在公司当前环境中,VMware假造化环境承载着大约80%的应用系统的运行。随着应用系统和假造桌面需求增多,尤其各种业务系统突发增多,传统的存储规划已经无法满足要求,需要灵活的应对VMware环境存储需求的方案。随着各种软件界说存储的发展和使用,我们也在尝试和寻找一个比较成熟的针对VMware环境的软件界说存储方案。
存储方案的基本原则:

  • 灵活快速部署,通过监控当前环境存储的状态能够通过快速部署应对存储性能和容量的需求增长。
  • 在满足性能要求的条件下,低落成本。
  • 通用型存储,以便该存储方案能够应对其他应用场景的需求。
结合VMware所兼容的存储范例接口,在软件界说存储的选型中,我们对当前主流的几款软件界说存储做了一些测试以及分析,综合下来有以下特点:
一些开源软件界说存储已经可以通过部署iSCSI Gateway提供block存储挂载给VMware ESXi主机使用,但目前此方案还不成熟,好比Ceph。
一些存储公司的软件界说存储产物已可以与VMware环境集成,但有些产物集成度过高,不够通用;还有些产物可以独立部署,作为通用存储使用,除了能够提供对VMware存储集成支持,也可适用于其他应用场景。在这一点上,比较符合我们选型前所设定的基本原则。
那么,如何对此存储集群进行设计?
在设计前,需要结合当前VMware运行环境的特点以及容量和性能需求做统一考虑:

  • 通过监控当前VMware环境,我们发现,在此环境中存储的读写比例约为7:3,读操作明显更多
  • 结合假造桌面的特点,也更多的是读操作
  • 容量需求
  • 假造桌面的镜像存储需要更优的读性能
结合容量以及未来增长需求,我们考虑此存储集群的存储节点不会超过16个,我们最终按以下架构进行了第一期部署:

● 接纳两套独立的10gb网络用于差别的通信:
1. Private network用于存储节点之间通信,作为数据rebuild和rebalance网络
2. Public network用于存储客户端与存储集群通信,作为数据存储网络
● 接纳6台X86服务器作为存储节点,每台服务器配置:
1. 10K SAS 1.2TB × 20
2. SSD 480GB × 4
● 存储池和Cache设置:
1. 根据硬盘分类将集群分为两个存储池:SAS pool和SSD pool
2. 使用一部门存储节点内存作为缓存
3. 每台存储节点使用一块SSD作为SAS pool读缓存
4. SSD pool紧张用于存放假造桌面镜像
● 容错配置:
为了应对服务器故障,同时由于存储集群节点较少,我们设置每台服务器作为一个Fault set,同时预留一台服务器的容量空间作为spare space,可以应对一台服务器故障。随着集群增大,可以灵活更改此预留空间比例。
我们通过FIO对此存储集群做了一个简单的性能测试,效果如下:

固然,VMware环境的实际IO范例要比以上的测试更为复杂,目前此套集群已经能满足当前需求。我们也将不断根据实际使用环境和需求,渐渐增加集群存储节点,结合cache技能,进行存储性能优化。


更多相关主题文章,请点击阅读原文



长按二维码关注公众号



免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

汕尾海湾

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表