云盘算-私有云-私有云服务运维

[复制链接]
发表于 2025-9-12 17:40:31 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
私有云服务运维(25)
二、 OpenStack 云平台运维、OpenStack 相关组件运维运维。
​ 应用体系迁移上云,云平台排错与体系优化
    1.使用Heat模板创建用户(4分)
​ 编写Heat模板create_user.yaml,创建名为heat-user的用户。
    ​ 使用本身搭建的OpenStack私有云平台,使用heat编写摸板(heat_template_version: 2016-04-08)创建名为”chinaskills”的domain,在此domain下创建名为beijing_group的租户,在此租户下创建名为cloud的用户,将此文件命名及生存在/root/user_create.yml,完成后提交controller点的用户名、密码和IP地点到答题框。(比赛体系会执行yaml文件,请确保执行的情况)
                   登录后复制               
  1. # 编写create_user.yaml
  2. vi create_user.yaml
  3. heat_template_version: 2016-04-08
  4. resources:
  5.   chinaskills:
  6.     properties:
  7.       name: chinaskills
  8.       enabled: true
  9.     type: OS::Keystone::Domain
  10.   keystoneProject:
  11.     properties:
  12.       domain: {get_resource: chinaskills}
  13.       name: beijing_group
  14.     type: OS::Keystone::Project
  15.   keystoneUser:
  16.     properties:
  17.       default_project: {get_resource: keystoneProject}
  18.       name: cloud
  19.       domain: {get_resource: chinaskills}
  20.     type: OS::Keystone::User
  21. # 测试
  22. openstack stack create -t create_user.yaml heat-user
复制代码
   

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
           2.使用Heat模板创建网络(4分)
​ 在自行搭建的OpenStack私有云平台上,编写Heat模板文件,完成网络的创建。
    ​ 在自行搭建的OpenStack私有云平台上,在/root目次下编写Heat模板create_net.yaml,创建名为Heat-Network网络,选择不共享;创建子网名为Heat-Subnet,子网网段设置为10.20.2.0/24,开启DHCP服务,地点池为10.20.2.20-10.20.2.100。完成后提交控制节点的用户名、密码和IP地点到答题框。(在提交信息前请准备好yaml模板执行的情况)
                   登录后复制               
  1. # 编写create_net.yaml
  2. vi create_net.yaml
  3. heat_template_version: 2014-10-16
  4. description: Generated template
  5. resources:
  6.   network_1:
  7.     type: OS::Neutron::Net
  8.     properties:
  9.       admin_state_up: true
  10.       name: Heat-Network
  11.       shared: false
  12.   subnet_1:
  13.     type: OS::Neutron::Subnet
  14.     properties:
  15.       allocation_pools:
  16.       - end: 10.20.2.100
  17.         start: 10.20.2.10
  18.       cidr: 10.20.2.0/24
  19.       enable_dhcp: true
  20.       host_routes: []
  21.       ip_version: 4
  22.       name: Heat-Subnet
  23.       network_id:
  24.         get_resource: network_1
  25.         
  26. # 测试
  27. openstack stack create -t create_net.yaml test
复制代码
   

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
           3.Linux体系调优(4分)
修改体系设置文件,要求将回写磁盘的时间暂时调解为60秒。
​ Linux体系内存中会存在脏数据,一样平常体系默认脏数据30秒后会回写磁盘,修改体系设置文件,要求将回写磁盘的时间暂时调解为60秒。完成后提交controller节点的用户名、密码和IP地点到答题框。
                   登录后复制               
  1. # 修改回写磁盘的时间
  2. vi /etc/sysctl.conf
  3. vm.dirty_expire_centisecs = 6000
  4. # 刷新信息
  5. sysctl -p
复制代码
   

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
           4.Glance调优(4分)
在OpenStack平台中,修改相关设置文件,将子进程数目相应的设置修改成2。
​ 在OpenStack平台中,glance-api处置惩罚哀求的子进程数目默认是0,只有一个主进程,请修改相关设置文件,将子进程数目相应的设置修改成2,如许的话有一个主进程加2个子进程来并发处置惩罚哀求。完成后提交控制节点的用户名、密码和IP地点到答题框。
                   登录后复制               
  1. # 将子进程数量相应的配置修改成2
  2. vi /etc/glance/glance-api.conf
  3. workers = 2
复制代码
   

  • 1.
  • 2.
  • 3.
           5.Ceph部署(4分)
​ 使用提供的ceph-14.2.22.tar.gz软件包,在OpenStack平台上创建三台CentOS7.9体系的云主机,使用这三个节点安装ceph服务并完成初始化操纵,第一个节点为mon/osd节点,第二、三个节点为osd节点,部署完ceph后,创建vms、images、volumes三个pool。完成后提交第一个节点的用户名、密码和IP地点到答题框。
    准备:在OpenStack平台中,使用提供的CentOS7.9镜像创建3个云主机,flavor使用2vCPU/4G/40G硬盘+暂时磁盘20G范例
    (1)ceph-node1
                   登录后复制               
  1. # 修改主机名
  2. hostnamectl set-hostname ceph-node1
  3. bash
  4. # 查看是否有20 GB的空闲硬盘
  5. lsblk
  6. # 修改域名解析
  7. vi /etc/hosts
  8. 172.128.11.15  ceph-node1
  9. 172.128.11.26  ceph-node2
  10. 172.128.11.64  ceph-node3
  11. # 上传ceph包,解压
  12. tar -zxvf ceph-14.2.22.tar.gz -C /opt
  13. # 移除原yum源
  14. mv /etc/yum.repos.d/* /media/
  15. # 配置yum源
  16. vi /etc/yum.repos.d/ceph.repo
  17. [ceph]
  18. name=ceph
  19. baseurl=file:///opt/ceph
  20. gpgcheck=0
  21. enabled=1
  22. # 下载ceph-deploy工具
  23. yum -y install ceph-deploy
  24. # 创建目录
  25. mkdir /etc/ceph
  26. # 进入创建的目录
  27. cd /etc/ceph
  28. # 创建一个集群
  29. ceph-deploy new ceph-node1
  30. # 使用ceph-deploy工具在所有节点上安装Ceph二进制软件包
  31. ceph-deploy install ceph-node1 ceph-node2 ceph-node3 --no-adjust-repos
  32. # 验证是否安装成功
  33. ceph -v
  34. # 安装mgr
  35. ceph-deploy mgr create ceph-node1 ceph-node2 ceph-node3
  36. # 检查集群的状态,这个时候Ceph集群并不处于健康状态
  37. ceph -s
  38. # 禁用不安全模式
  39. ceph config set mon auth_allow_insecure_global_id_reclaim false
  40. # 查看集群状态,集群是HEALTH_OK状态
  41. ceph -s
  42. # 开放权限给其他节点,进行灾备处理
  43. ceph-deploy admin ceph-node{1,2,3}
  44. chmod +r /etc/ceph/ceph.client.admin.keyring
  45. # 创建vms、images、volumes三个pool
  46. ceph osd pool create vms 8
  47. ceph osd pool create images 8
  48. ceph osd pool create volumes 8
  49. # 列表Ceph存储
  50. ceph osd lspools
复制代码
   

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
  • 36.
  • 37.
  • 38.
  • 39.
  • 40.
  • 41.
  • 42.
  • 43.
  • 44.
  • 45.
  • 46.
  • 47.
  • 48.
  • 49.
  • 50.
  • 51.
  • 52.
  • 53.
  • 54.
  • 55.
  • 56.
  • 57.
  • 58.
  • 59.
  • 60.
  • 61.
  • 62.
  • 63.
  • 64.
  • 65.
  • 66.
  • 67.
  • 68.
           (2)ceph-node2
                   登录后复制               
  1. # 修改主机名
  2. hostnamectl set-hostname ceph-node2
  3. bash
  4. # 验证是否安装成功
  5. ceph -v
复制代码
   

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
           (3)ceph-node3
                   登录后复制               
  1. # 修改主机名
  2. hostnamectl set-hostname ceph-node3
  3. bash
  4. # 验证是否安装成功
  5. ceph -v
复制代码
   

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
           6.Glance对接Ceph存储(5分)
​ 修改OpenStack平台中Glance服务的设置文件,将Glance后端存储改为Ceph存储。
    ​ 在本身搭建的OpenStack平台中修改glance服务的相关设置文件,将glance后端存储改为ceph存储。也就是所以的镜像会上传至ceph的images pool中。通过下令使用cirros-0.3.4-x86_64-disk.img镜像文件上传至云平台中,镜像命名为cirros。完成后提交controller节点的用户名、密码和IP地点到答题框。
                   登录后复制               
  1. # Glance后端存储改为Ceph存储
  2. vi /etc/glance/glance-api.conf
  3. # 存储的类型格式
  4. # stores = rbd
  5. # 参数改成RDB
  6. default_store = rbd
  7. # 存储的大小
  8. # rbd_store_chunk_size = 8
  9. # 是ceph存储池的名称
  10. rbd_store_pool = images
  11. # 是ceph的用户名
  12. rbd_store_user = glance
  13. # 是ceph配置文件的路径
  14. rbd_store_ceph_conf = /etc/ceph/ceph.conf
  15. # 重启服务
  16. systemctl restart openstack-glance*
  17. # 上传镜像文件至openstack平台
  18. openstack image create --disk-format qcow2 --min-disk 10 --min-ram 1024 --file cirros-0.3.4-x86_64-disk.img cirros
复制代码
   

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
                本文由博客一文多发平台  OpenWrite 发布

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
回复

使用道具 举报

×
登录参与点评抽奖,加入IT实名职场社区
去登录
快速回复 返回顶部 返回列表