鼠扑 发表于 2024-7-22 13:39:36

最全CentOS 7部署 Ceph分布式存储架构_centos7,2024年最新农民工看完都会

https://img-blog.csdnimg.cn/img_convert/03f732a19ab2f75de85ef20e634c4e5a.png
https://img-blog.csdnimg.cn/img_convert/a6d4e26c0f85cb8ac8afc00dec485550.png
网上学习资料一大堆,但假如学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技能提拔。
需要这份系统化的资料的朋侪,可以戳这里获取
一个人可以走的很快,但一群人才能走的更远!岂论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都接待加入我们的的圈子(技能交换、学习资源、职场吐槽、大厂内推、口试辅导),让我们一起学习发展!
Monitors: Ceph Monitor维护着展示集群状态的各种图表,包括监督器图、 OSD 图、归置组( PG )图、和 CRUSH 图。 Ceph 保存着发生在Monitors 、 OSD 和 PG上的每一次状态变更的历史信息(称为 epoch )。
MDSs: Ceph 元数据服务器(MDS)为 Ceph 文件系统存储元数据(也就是说,Ceph 块设备和 Ceph 对象存储不利用MDS )。元数据服务器使得 POSIX 文件系统的用户们,可以在不对 Ceph 存储集群造成负担的条件下,执行诸如 ls、find 等基本下令。
8.2 ceph集群部署实行
主机准备 (禁用selinux, 关闭防火墙)
xuegod63   192.168.1.63      admin,osd, mon作为管理和监控节点
xuegod62   192.168.1.62      osd,mds
xuegod64   192.168.1.64      osd,mds
xuegod65           192.168.1.65      client

#xuegod63作管理. osd. mon节点; xuegod62和64作osd mds; xuegod65客户端
前三台服务器增长一块硬盘/dev/sdb实行, 创建目次并挂载到/var/local/osd{0,1,2}
# mkfs.xfs/dev/sdb
# mkdir /var/local/osd{0,1,2}
# mount /dev/sdb/var/local/osd0/

# mkfs.xfs/dev/sdb
# mkdir /var/local/osd{0,1,2}
# mount /dev/sdb/var/local/osd1/

# mkfs.xfs /dev/sdb
# mkdir /var/local/osd{0,1,2}
# mount /dev/sdb/var/local/osd2/

编辑hosts文件(全部节点需要操作):
(规范系统主机名添加hosts文件实现集群主机名与主机名之间相互能够解析(host 文件添加主机名不要利用fqdn方式)可用hostnamectl set-hostname name设置
分别打开各节点的/etc/hosts文件,加入这四个节点ip与名称的对应关系
# vim /etc/hosts
192.168.1.63    xuegod63
192.168.1.62    xuegod62
192.168.1.64    xuegod64
192.168.1.65    xuegod65

SSH免密码登录(全部节点需要操作)
在管理节点利用ssh-keygen 生成ssh keys 发布到各节点
# ssh-keygen        #所有的输入选项都直接回车生成。

# ssh-copy-id xuegod63
# ssh-copy-id xuegod62
# ssh-copy-id xuegod64
# ssh-copy-id xuegod65

8.2.1 管理节点安装ceph-deploy工具

第一步:增长 yum设置文件(各节点都要设置ceph源)
# mkdir /etc/yum.repos.d/yum/
# mv /etc/yum.repos.d/\*.repo /etc/yum.repos.d/yum/
# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
# wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
# vim /etc/yum.repos.d/ceph.repo #添加如下内容:

name=ceph
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/x86\_64/
gpgcheck=0
priority=1


name=cephnoarch
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/
gpgcheck=0
priority=1


name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS
gpgcheck=0
priority=1

# yum clean all
# yum makecache

第二步:更新软件源并安装ceph-deploy 管理工具
# yum -y install ceph-deploy

创建monitor服务
# mkdir /etc/ceph && cd /etc/ceph
#ceph-deploy new xuegod63    #mon安装在xuegod63节点
# ls                              #生成配置文件在当前目录下
ceph.confceph.logceph.mon.keyring

Ceph设置文件、一个monitor密钥环和一个日记文件
修改副本数
# vim ceph.conf                 #配置文件的默认副本数从3改成2,这样只有两个osd也能达到active+clean状态,把下面这行加入到段(可选配置)

fsid = 92f5581d-79d2-4c9f-a523-4965eedc846b
mon_initial_members = xuegod63
mon_host = 192.168.1.63
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd_pool_default_size = 2

8.2.2 安装ceph

在全部节点上安装:
# ceph-deploy install xuegod63 xuegod62 xuegod64 xuegod65
(如果网络源安装失败,手工安装epel-release 然后安装yum -y install ceph-release再yum -y install ceph ceph-radosgw)

8.2.3 安装ceph monitor

# ceph-deploy mon create xuegod63

收集节点的keyring文件
# ceph-deploygatherkeys xuegod63

8.2.4 部署osd服务

添加osd节点 (全部osd节点执行)
我们实行准备时已经创建目次/var/local/osd{id}
创建激活osd
#创建osd
# ceph-deploy osd prepare xuegod63:/var/local/osd0 xuegod62:/var/local/osd1 xuegod64:/var/local/osd2

8.2.5 激活osd
# ceph-deploy osd activate xuegod63:/var/local/osd0 xuegod62:/var/local/osd1 xuegod64:/var/local/osd2

假如报错
https://img-blog.csdnimg.cn/20201202231900835.png
解决:在各个节点上给/var/local/osd1/和/var/local/osd2/添加权限
如下:
chmod 777-R /var/local/osd1/
chmod 777-R /var/local/osd2/\*

查看状态:
# ceph-deploy osd list xuegod63 xuegod62 xuegod64

同一设置
(用ceph-deploy把设置文件和admin密钥拷贝到全部节点,如许每次执行Ceph下令行时就无需指定monitor地点和ceph.client.admin.keyring了)
root@xuegod63 ceph]# ceph-deploy admin xuegod63 xuegod62 xuegod64

各节点修改ceph.client.admin.keyring权限:
chmod +r /etc/ceph/ceph.client.admin.keyring

查看osd状态
# ceph health        #或 ceph -s

https://img-blog.csdnimg.cn/20201202231915267.png
部署mds服务
# ceph-deploy mds create xuegod62 xuegod64#我们MDS安装2台
# ceph mds stat#查看状态
集群状态

# ceph -s

https://img-blog.csdnimg.cn/20201202231929620.png
以上基本上完成了ceph存储集群的搭建。
8.2.6 创建ceph文件系统
# ceph fs ls           #创建之前

https://img-blog.csdnimg.cn/20201202231946119.png
创建存储池
#ceph osd pool create cephfs_data 128
pool 'cephfs\_data' created
# ceph osd pool create cephfs_metadata 128
pool 'cephfs\_metadata' created

此中: 128 ,
关于创建存储池
确定 pg_num 取值是强制性的,因为不能自动计算。下面是几个常用的值:
*少于 5 个 OSD 时可把 pg_num 设置为 128
https://img-blog.csdnimg.cn/img_convert/83ac44c12e8475242aed774f690966ab.png
https://img-blog.csdnimg.cn/img_convert/03656572673c505fc85f479970080fd0.png
https://img-blog.csdnimg.cn/img_convert/8378c9e33f44e1ead6db7b3ffad1eefe.png
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提拔的进阶课程,涵盖了95%以上软件测试知识点,真正体系化!
由于文件比较多,这里只是将部门目次截图出来,全套包罗大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,而且后续会连续更新
需要这份系统化的资料的朋侪,可以戳这里获取
转存中…(img-SiRInZWP-1715382655372)]
[外链图片转存中…(img-X9EV0ovB-1715382655373)]
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提拔的进阶课程,涵盖了95%以上软件测试知识点,真正体系化!
由于文件比较多,这里只是将部门目次截图出来,全套包罗大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,而且后续会连续更新
需要这份系统化的资料的朋侪,可以戳这里获取

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 最全CentOS 7部署 Ceph分布式存储架构_centos7,2024年最新农民工看完都会