作者:运维有术星主
在 Kubernetes 生态系统中,长期化存储扮演着至关重要的角色,它是支撑应用稳定运行的基石。对于那些选择自建 Kubernetes 集群的运维架构师而言,选择合适的后端长期化存储解决方案是一项至关重要的选型决策。后端长期化存储常见的解决方案有 Ceph、GlusterFS、NFS、hostPath,以及这两年新兴起的 Longhorn。当然,技术领域日新月异,另有其他优秀的解决方案我尚未了解。
本日,我将为大家分享,如安在 Kubernetes 集群中手动安装 Kubernetes NFS Subdir External Provisioner 插件。这是一个强大的工具,可以或许实现为 Kubernetes 集群提供自动化的基于 NFS 存储的长期化动态卷管理能力。通过实战演示,您将学会如何将 NFS 作为后端的长期化存储解决方案集成至 Kubernetes 集群。
本文核心内容概览:
- NFS 长期化存储选型说明: 理解为什么选择 NFS 及其优缺点。
- NFS 存储服务如何部署: 如安在 openEuler 上部署设置 NFS 存储
- 手动安装 NFS Subdir External Provisioner:一步步指导如何安装、设置、卸载这一关键插件。
- 实战演示:创建测试资源,体验 NFS 作为长期化存储的效果。
实战服务器设置(架构 1:1 复刻小规模生产环境,设置略有不同)
主机名IPCPU内存系统盘数据盘用途ksp-registry192.168.9.904840200Harbor 镜像仓库ksp-control-1192.168.9.914840100KubeSphere/k8s-control-planeksp-control-2192.168.9.924840100KubeSphere/k8s-control-planeksp-control-3192.168.9.934840100KubeSphere/k8s-control-planeksp-worker-1192.168.9.9441640100k8s-worker/CIksp-worker-2192.168.9.9541640100k8s-workerksp-worker-3192.168.9.9641640100k8s-workerksp-storage-1192.168.9.974840300+Ceph/Longhorn/NFS/ElasticSearchksp-storage-2192.168.9.984840300+Ceph/Longhorn/ElasticSearchksp-storage-3192.168.9.994840300+Ceph/Longhorn/ElasticSearchksp-gpu-worker-1192.168.9.10141640100k8s-worker(GPU NVIDIA Tesla M40 24G)ksp-gpu-worker-2192.168.9.10241640100k8s-worker(GPU NVIDIA Tesla P100 16G)ksp-gateway-1192.168.9.1032440自建应用服务代理网关/VIP:192.168.9.100ksp-gateway-2192.168.9.1042440自建应用服务代理网关/VIP:192.168.9.100ksp-mid192.168.9.1054840100部署在 k8s 集群之外的服务节点(Gitlab 等)合计15561526002000+实战环境涉及软件版本信息
- 操作系统:openEuler 22.03 LTS SP3 x86_64
- KubeSphere:v3.4.1
- Kubernetes:v1.28.8
- KubeKey: v3.1.1
- Containerd:1.7.13
- NVIDIA GPU Operator:v24.3.0
- NVIDIA 显卡驱动:550.54.15
- Kubernetes NFS Subdir External Provisioner:4.0.18
1. 前置条件
1.1 NFS 选型说明
本文介绍的内容可直接用于研发、测试环境,对于生产环境不建议利用 NFS 存储,重要原因如下:
- 单点故障,生产上利用第一要解决的就是 NFS 单点的问题,有解决方案但是很贫苦,本文不涉及
- 网络故障,要思量 NFS 对网络的依赖度,网络颠簸造成的连接非常等问题
- 容量限定,无法限定实际的利用容量
- 存储的冗余,要思量 NFS 底层磁盘是否有冗余备份
- 有些组件和应用不兼容 NFS 存储(比如 Promethues,未实际验证,只是在网上多次看到相关的说明)
- 性能优化(Pod 少的时间还可以,连接挂载点多了怎么优化是个问题)
固然,我个人不建议在生产环境利用 NFS 作为 Kubernetes 的后端长期化存储。但是,在我做过的小调研中发现,生产环境利用 NFS 的比率还挺高。
这是为什么呢?我左思右想可能的原因有:
- NFS 简单易维护
- 利用 NFS 的生产环境对于业务的停止和数据的丢失有肯定的容忍度(或许对停止和数据丢失都有对应的应对方案)
- 成本低廉,降本增效(笑)。一台或两台存储就能搞定,比 Ceph、GlusterFS 动辄三台起步需要的资源少的太多了(但是也要思量,因为存储导致集群故障从而导致业务故障的后果)
生产环境肯定要利用 NFS?建议仔细思量以下几点:
- 建议选择硬件厂商的贸易集中式存储产品不要自建
- 存储网络肯定要利用万兆网络,且有网卡冗余 bond 加持
- 自建的 NFS 存储数据盘肯定要做 Raid,最好 Raid10
- 业务应用对存储 IO 能力要求高时,不要利用 NFS
- 是否需要 NFS 服务的高可用?如何实现?
1.2 安装 NFS 客户端
在安装 Kubernetes NFS Subdir External Provisioner 之前,Kubernetes 集群所有节点需要提前安装 NFS 客户端,否则部署过程会报错。不同操作系统 NFS 客户端的包名不同,CentOS 和 openEuler 中包名为 nfs-utils。
2. openEuler 部署 NFS 服务
本文的重要目的是测试 Kubernetes 利用 NFS 作为长期化存储的能力。因此,实战环境选择一台操作系统为 openEuler 的假造机部署 NFS 服务。该 NFS 服务器安装设置方法仅适用于测试环境,生产环境请谨慎评估、设置利用。
本文利用 IP 为 192.168.9.97 的 ksp-storage-1 节点, 部署单节点 NFS 存储服务器。部署过程中分配一块独立的 100G 数据盘 /dev/sde, 利用 LVM 类型将其格式化,挂载到 /datanfs/ 目录下作为共享存储的根目录。
2.1 初始化数据盘
LVM 设置比力简单,操作细节不做解释,直接上命令。- pvcreate /dev/sde
- vgcreate datanfs /dev/sde
- lvcreate -l 100%VG datanfs -n lvnfs
- mkfs.xfs /dev/mapper/datanfs-lvnfs
- mkdir /datanfs/
- mount /dev/mapper/datanfs-lvnfs /datanfs/
- tail -1 /etc/mtab >> /etc/fstab
复制代码 2.2 安装 NFS 服务端软件包
2.3 创建共享数据根目录
执行以下命令,创建共享数据存储目录,本文以 /datanfs/k8s 为例,请根据实际环境调整路径和权限。- mkdir -p /datanfs/k8s
- chown nobody:nobody /datanfs/k8s
复制代码 2.4 编辑服务设置文件
设置 NFS 服务器数据导出目录及访问 NFS 服务器的客户端呆板权限。
编辑设置文件 vi /etc/exports,添加如下内容:- /datanfs/k8s 192.168.9.0/24(rw,sync,all_squash,anonuid=65534,anongid=65534,no_subtree_check)
复制代码设置说明:
- /datanfs/k8s:NFS 导出的共享数据目录
- 192.168.9.0/24:可以访问 NFS 存储的客户端 IP 地址
- rw:读写操作,客户端呆板拥有对卷的读写权限。
- sync:内存数据实时写入磁盘,性能会有所限定
- all_squash:NFS 客户端上的所有效户在利用共享目录时都会被转换为一个平凡用户的权限
- anonuid:转换后的用户权限 ID,对应的操作系统的 nobody 用户
- anongid:转换后的组权限 ID,对应的操作系统的 nobody 组
- no_subtree_check:不检查客户端请求的子目录是否在共享目录的子树范围内,也就是说即使输出目录是一个子目录,NFS 服务器也不检查其父目录的权限,如许可以提高效率。
2.5 启动服务并设置开机自启
- systemctl enable nfs-server --now
复制代码 2.6 检察共享目录
精确执行后,输出结果如下 :- $ exportfs -v
- /datanfs/k8s 192.168.9.0/24(sync,wdelay,hide,no_subtree_check,sec=sys,rw,secure,root_squash,all_squash)
复制代码 2.7 客户端挂载测试
找一台额外的呆板作为客户端验证测试,本示例利用 ksp-worker-1 节点。
- 安装 NFS 软件包(肯定要安装,否则无法辨认 nfs 类型的存储)
- $showmount -e 192.168.9.97
- Export list for 192.168.9.97:
- /datanfs/k8s 192.168.9.0/24
复制代码- mount -t nfs 192.168.9.97:/datanfs/k8s /mnt/nfs/
复制代码- # 创建测试目录、创建测试文件、测试文件写入内容、查看写入目录和文件权限、删除目录和文件
- # 创建
- mkdir /mnt/nfs/nfs-test
- touch /mnt/nfs/nfs-test.txt
- echo "nfs-test" > nfs-test.txt
- # 查看
- $ ls -l /mnt/nfs/
- total 4
- drwxr-xr-x 2 nobody nobody 6 Jul 11 21:37 nfs-test
- -rw-r--r-- 1 nobody nobody 9 Jul 11 21:37 nfs-test.txt
- $ cat /mnt/nfs/nfs-test.txt
- nfs-test
- # 删除
- rmdir /mnt/nfs/nfs-test
- rm -rf /mnt/nfs/nfs-test.txt
复制代码 3. 安装设置 Kubernetes NFS Subdir External Provisioner
Kubernetes 支持 NFS 存储,需要安装 nfs-subdir-external-provisioner ,它是一个存储资源自动调配器,它可将现有的 NFS 服务器通过长期卷声明来支持 Kubernetes 长期卷的动态分配。该组件是对 Kubernetes NFS-Client Provisioner 的扩展, nfs-client-provisioner 已经不提供更新,而且 nfs-client-provisioner Github 仓库 也已经处于归档状态,已经迁移到 nfs-subdir-external-provisioner 的仓库。
官方提供的安装方式有三种:
- With Helm
- With Kustomize
- Manually
利用 Helm 的方式比力简单,也是如今官方保举的、利用率最高的方式。
往期我已经分享过如何利用 Helm 的方式部署 NFS Subdir External Provisioner。以是,本日实战演示如何手动部署。
实在,我个人更喜好手动部署,手动方式更机动,适用于没有 Helm 或是跟我一样不愿意用 Helm 的离线或在线环境。
3.1 获取 NFS Subdir External Provisioner 部署文件
在 K8S 控制节点 ksp-control-1 ,下载最新版 nfs-subdir-external-provisioner-4.0.18 Releases 文件,并解压。- wget https://github.com/kubernetes-sigs/nfs-subdir-external-provisioner/archive/refs/tags/nfs-subdir-external-provisioner-4.0.18.zip
- unzip nfs-subdir-external-provisioner-4.0.18.zip
- cd nfs-subdir-external-provisioner-nfs-subdir-external-provisioner-4.0.18/
复制代码 3.2 创建 NameSpace
可选设置,默认为 default,新建方便资源管理。- kubectl create ns nfs-system
复制代码 3.3 设置 RBAC authorization
- sed -i'' "s/namespace:.*/namespace: nfs-system/g" ./deploy/rbac.yaml ./deploy/deployment.yaml
复制代码- kubectl create -f deploy/rbac.yaml
复制代码 3.4 设置 NFS subdir external provisioner
编辑 provisioner's deployment 文件 deploy/deployment.yaml,重点修改以下内容:
- image: 默认利用 registry.k8s.io 镜像仓库的镜像 nfs-subdir-external-provisioner:v4.0.2,网络受限时需要想办法下载并上传到方便访问的镜像仓库
- NFS 服务器的主机名或是 IP 地址
- NFS 服务器导出的共享数据目录的路径(exportfs)
文件 deployment.yaml 默认内容如下:- apiVersion: apps/v1
- kind: Deployment
- metadata:
- name: nfs-client-provisioner
- labels:
- app: nfs-client-provisioner
- # replace with namespace where provisioner is deployed
- namespace: nfs-system
- spec:
- replicas: 1
- strategy:
- type: Recreate
- selector:
- matchLabels:
- app: nfs-client-provisioner
- template:
- metadata:
- labels:
- app: nfs-client-provisioner
- spec:
- serviceAccountName: nfs-client-provisioner
- containers:
- - name: nfs-client-provisioner
- image: registry.k8s.io/sig-storage/nfs-subdir-external-provisioner:v4.0.2
- volumeMounts:
- - name: nfs-client-root
- mountPath: /persistentvolumes
- env:
- - name: PROVISIONER_NAME
- value: k8s-sigs.io/nfs-subdir-external-provisioner
- - name: NFS_SERVER
- value: 10.3.243.101
- - name: NFS_PATH
- value: /ifs/kubernetes
- volumes:
- - name: nfs-client-root
- nfs:
- server: 10.3.243.101
- path: /ifs/kubernetes
复制代码说明: 重要修改内容,用实际 NFS 设置信息更换默认值(受限于篇幅,未展示最终修改后的内容)
- image: registry.k8s.io/sig-storage/nfs-subdir-external-provisioner:v4.0.2
- value: 10.3.243.101
- value: /ifs/kubernetes
3.5 部署 NFS Subdir External Provisioner
- kubectl apply -f deploy/deployment.yaml
复制代码- $ kubectl get deployment,pods -n nfs-system
- NAME READY UP-TO-DATE AVAILABLE AGE
- deployment.apps/nfs-client-provisioner 1/1 1 1 41s
- NAME READY STATUS RESTARTS AGE
- pod/nfs-client-provisioner-75df4c7d5b-nc2ts 1/1 Running 0 41s
复制代码 3.6 部署 Storage Class
Step 1: 编辑 NFS subdir external provisioner 定义 Kubernetes Storage Class 的设置文件 deploy/class.yaml,重点修改以下内容:
文件默认内容如下:- apiVersion: storage.k8s.io/v1
- kind: StorageClass
- metadata:
- name: nfs-client
- provisioner: k8s-sigs.io/nfs-subdir-external-provisioner # or choose another name, must match deployment's env PROVISIONER_NAME'
- parameters:
- archiveOnDelete: "false"
复制代码 修改后的文件内容如下:- apiVersion: storage.k8s.io/v1
- kind: StorageClass
- metadata:
- name: nfs-sc
- provisioner: k8s-sigs.io/nfs-subdir-external-provisioner
- parameters:
- archiveOnDelete: "true"
复制代码说明: 重要修改内容
- metadata.name,设置存储类的名称为 nfs-sc
- parameters.archiveOnDelete,设置为 true
重点说说 Parameters archiveOnDelete 的设置。
- 该值为 false 时,存储卷删除时,在 NFS 上直接删除对应的数据目录
- 该值为 true 时,存储卷删除时,在 NFS 上以 archived- 的定名规则,归档保留原有的数据目录
- 详细如何设置请肯定联合自己的实际环境酌情处置惩罚,数据量小的场景下,个人喜好设置为 true,手动或自动定时清理归档数据。
Parameters 所有可选设置项如下所示,各位可自行研究、利用:
NameDescriptionDefaultonDeleteIf it exists and has a delete value, delete the directory, if it exists and has a retain value, save the directory.will be archived with name on the share: archived-archiveOnDeleteIf it exists and has a false value, delete the directory. if onDelete exists, archiveOnDelete will be ignored.will be archived with name on the share: archived-pathPatternSpecifies a template for creating a directory path via PVC metadata's such as labels, annotations, name or namespace. To specify metadata use ${.PVC.}. Example: If folder should be named like -, use ${.PVC.namespace}-${.PVC.name} as pathPattern.n/aStep 2: 执行部署命令,部署 Storage Class。- kubectl apply -f deploy/class.yaml
复制代码 检察 Storage Class 部署结果。- $ kubectl get sc
- NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE
- local (default) openebs.io/local Delete WaitForFirstConsumer false 50d
- nfs-sc k8s-sigs.io/nfs-subdir-external-provisioner Delete Immediate false 19s
复制代码 4. 验证测试
4.1 创建测试 PVC
- 编写测试 PVC 资源清单,vi test-nfs-pvc.yaml
- kind: PersistentVolumeClaim
- apiVersion: v1
- metadata:
- name: test-nfs-pvc
- spec:
- storageClassName: nfs-sc
- accessModes:
- - ReadWriteMany
- resources:
- requests:
- storage: 1Gi
复制代码- kubectl apply -f test-nfs-pvc.yaml
复制代码- $ kubectl get pvc -o wide
- NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE VOLUMEMODE
- test-nfs-pvc Bound pvc-6b7abed8-805e-45ff-82c8-1ad3beca8b9e 1Gi RWX nfs-sc 10s Filesystem
复制代码 4.2 创建测试 Pod
- 编写测试 Pod 资源清单,vi test-nfs-pod.yaml
- kind: Pod
- apiVersion: v1
- metadata:
- name: test-nfs-pod
- spec:
- containers:
- - name: test-nfs-pod
- image: busybox:stable
- command:
- - "/bin/sh"
- args:
- - "-c"
- - "touch /mnt/SUCCESS && sleep 3600"
- volumeMounts:
- - name: nfs-pvc
- mountPath: "/mnt"
- restartPolicy: "Never"
- volumes:
- - name: nfs-pvc
- persistentVolumeClaim:
- claimName: test-nfs-pvc
复制代码- kubectl apply -f test-nfs-pod.yaml
复制代码- $ kubectl get pods -o wide
- NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
- test-nfs-pod 1/1 Running 0 5s 10.233.68.152 ksp-worker-2 <none> <none>
复制代码- $ kubectl exec test-nfs-pod -- df -h
- Filesystem Size Used Available Use% Mounted on
- overlay 99.9G 6.6G 93.3G 7% /
- tmpfs 64.0M 0 64.0M 0% /dev
- tmpfs 7.6G 0 7.6G 0% /sys/fs/cgroup
- 192.168.9.97:/datanfs/k8s/default-test-nfs-pvc-pvc-6b7abed8-805e-45ff-82c8-1ad3beca8b9e
- 99.9G 746.0M 99.2G 1% /mnt
- /dev/mapper/openeuler-root
- 34.2G 2.2G 30.2G 7% /etc/hosts
- /dev/mapper/openeuler-root
- 34.2G 2.2G 30.2G 7% /dev/termination-log
- /dev/mapper/data-lvdata
- 99.9G 6.6G 93.3G 7% /etc/hostname
- /dev/mapper/data-lvdata
- 99.9G 6.6G 93.3G 7% /etc/resolv.conf
- shm 64.0M 0 64.0M 0% /dev/shm
- tmpfs 13.9G 12.0K 13.9G 0% /var/run/secrets/kubernetes.io/serviceaccount
- tmpfs 7.6G 0 7.6G 0% /proc/acpi
- tmpfs 64.0M 0 64.0M 0% /proc/kcore
- tmpfs 64.0M 0 64.0M 0% /proc/keys
- tmpfs 64.0M 0 64.0M 0% /proc/timer_list
- tmpfs 64.0M 0 64.0M 0% /proc/sched_debug
- tmpfs 7.6G 0 7.6G 0% /proc/scsi
- tmpfs 7.6G 0 7.6G 0% /sys/firmware
复制代码注意: 在输出结果中我们可以看到挂载的 NFS 存储的可用空间为 99.9G,而不是我们 PVC 中分配的 1G。
- # 写入 2G 的数据
- $ kubectl exec test-nfs-pod -- dd if=/dev/zero of=/mnt/test-nfs.img bs=1M count=2000
- 2000+0 records in
- 2000+0 records out
- 2097152000 bytes (2.0GB) copied, 2.731103 seconds, 732.3MB/s
- # 查看结果
- $ kubectl exec test-nfs-pod -- ls -lh /mnt/
- total 2G
- -rw-r--r-- 1 nobody nobody 0 Jul 11 21:45 SUCCESS
- -rw-r--r-- 1 nobody nobody 2.0G Jul 11 21:47 test-nfs.img
复制代码注意: 实际测试我们写入了 2G 的数据量,已经超过了我们创建的 PVC 1G 的限定。因此,要特别注意,利用 NFS 存储时无法限定存储利用量。
4.3 存储节点检察验证
SSH 登陆 NFS 存储服务器( ksp-storage-1 节点),执行以下命令。- # 查看 NFS 导出数据根目录
- $ ls -l /datanfs/k8s/
- total 0
- drwxrwxrwx. 2 nobody nobody 41 Jul 11 21:47 default-test-nfs-pvc-pvc-6b7abed8-805e-45ff-82c8-1ad3beca8b9e
- # 查看分配的 PVC 数据目录
- $ ls -l /datanfs/k8s/default-test-nfs-pvc-pvc-6b7abed8-805e-45ff-82c8-1ad3beca8b9e/
- total 2048000
- -rw-r--r--. 1 nobody nobody 0 Jul 11 21:45 SUCCESS
- -rw-r--r--. 1 nobody nobody 2097152000 Jul 11 21:47 test-nfs.img
复制代码 在输出结果中,可以看见 SUCCESS 和 test.img 两个文件,并且可以看出定名目录的规则为 namespace 名称-pvc 名称-pv 名称。
PV 名称格式是 pvc+随机字符串,以是,每次只要不删除 PVC,那么 Kubernetes 中 PV 与存储绑定将不会丢失,要是删除 PVC 也就意味着删除了绑定的文件夹,下次就算重新创建雷同名称的 PVC,生成的文件夹名称也不会一致,因为 PV 名是随机生成的字符串,而文件夹定名又跟 PV 有关,以是删除 PVC 需谨慎。
4.4 清理测试资源
- kubectl delete -f test-nfs-pod.yaml -f test-nfs-pvc.yaml
复制代码- # 查看 NFS 导出数据根目录
- $ ls -l /datanfs/k8s/
- total 0
- drwxrwxrwx. 2 nobody nobody 41 Jul 11 21:47 archived-default-test-nfs-pvc-pvc-6b7abed8-805e-45ff-82c8-1ad3beca8b9e
- # 查看删除的 PVC 数据目录
- $ ls -l /datanfs/k8s/archived-default-test-nfs-pvc-pvc-6b7abed8-805e-45ff-82c8-1ad3beca8b9e/
- total 2048000
- -rw-r--r--. 1 nobody nobody 0 Jul 11 21:45 SUCCESS
- -rw-r--r--. 1 nobody nobody 2097152000 Jul 11 21:47 test-nfs.img
复制代码 从结果中可以看到,Kubernetes 删除 PVC 后,在 NFS 存储层并没有立即删除 PVC 对应的数据目录及数据,而是将原来的数据目录改名为 archived-+原有数据目录名称的情势。
该结果与我们设置 Storage Class 时,将参数 archiveOnDelete 值设置为 true 的预期相符(你可以可自行测试其他参数和值的设置效果)。
5. KubeSphere 控制台管理存储资源
5.1 管理存储类
在控制台左侧功能菜单,依次选择「集群」->「存储」->「存储类」。
5.2 创建长期卷声明(PVC)
Step 1: 在控制台左侧功能菜单,依次选择「集群」->「存储」->「长期卷声明」,点击「创建」按钮。
- 按提示填写存储设置,存储类选择 nfs-sc,容量选择 2G
Step 2: 创建完成后,检察已经创建的 PVC、PV 及详情。
- 检察 nfs-test-pvc1 详情(未挂载利用,以是显示容量为 0)
- 创建一个 Pod,挂载 nfs-test-pvc1,再次检察详情。
容量显示 NFS 存储空间的总容量、剩余容量、已利用百分比,并不是单个 PV 的容量信息。初始测试时占用 2G 未删除,因此 NFS 存储空间总体分配了 4G,显示结果略有差异也属于正常现象。
6. 卸载 NFS Subdir External Provisioner
6.1 卸载前提条件
当需要卸载 NFS Subdir External Provisioner 时,先确认满足以下前提条件。
- 清理所有利用 PVC 资源的 Pod(谨慎操作)
- 清理所有的 PVC(可以选择在 KubeSphere 的管理控制台页面中清理,可视化更全面、更清楚)
- 手工清理 NFS 存储中残留的以 archived- 定名的所有数据目录(可选,谨慎操作)
6.2 卸载 NFS Subdir External Provisioner
按顺序执行资源删除命令, 卸载 NFS Subdir External Provisioner。
- kubectl delete -f deploy/class.yaml
复制代码
- 删除 NFS Subdir External Provisioner
- kubectl delete -f deploy/deployment.yaml
复制代码- kubectl delete -f deploy/rbac.yaml
复制代码- $ kubectl get deploy,pod,sc -n nfs-system
- NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE
- storageclass.storage.k8s.io/local (default) openebs.io/local Delete WaitForFirstConsumer false 22h
复制代码说明: 结果中显示的是默认的 openebs 存储,nfs 相关资源已经删除
- kubectl delete ns nfs-system
复制代码免责声明:
- 笔者水平有限,只管经过多次验证和检查,尽力确保内容的准确性,但仍可能存在疏漏之处。敬请业界专家大佬不吝指教。
- 本文所述内容仅通过实战环境验证测试,读者可学习、鉴戒,但严禁直接用于生产环境。由此引发的任何问题,作者概不负责!
本文由博客一文多发平台 OpenWrite 发布!
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |