前言
1、版本说明
体系版本:CentOS 9
k8s版本:v1.29.5
docker版本:26.1.3
harbor:v2.9.4
2、提前预备好1台假造机,可以参考博客:Vmware 17安装 CentOS9
3、假造机提前安装好docker,参考博客:CentOS7安装docker以及docker-compose
4、假如部署k8s集群的时候使用个人的镜像堆栈,请提前部署好,本人使用的是harbor搭建的私有堆栈,可以参考博客:搭建Harbor镜像堆栈
5、集群部署参考官方文档:使用 kubeadm 创建集群 | Kubernetes
6、集群中的网络插件安装文档参考:Calico网络插件安装
7、以下是本人4台假造机的ip地点以及主机名信息,其中一台为镜像堆栈
节点 | 主机名 | ip | 主节点 | k8s-master | 192.168.65.130 | 节点1 | k8s-node1 | 192.168.65.131 | 节点2 | k8s-node2 | 192.168.65.132 | 私有镜像堆栈 | k8s-harbor | 192.168.65.135 | 三台假造机环境预备
克隆3台假造机
我这里已经安装好了一台CentOS 9的假造机,并且此假造机已经安装好了docker环境,在此假造机底子上克隆出来3台。
1、开始克隆
2、直接下一步
3、选择假造机中的当前状态,然后点击下一步
4、选择创建完备克隆,点击下一步
5、输入假造机名称,选择存储位置,点击完成
6、等待克隆完成,点击关闭
7、重复步骤1-6,克隆出另外2台假造机,我的另外两台假造机名称分别为node1和 node2,克隆完成后如下,总共3台
修改假造机信息
修改假造机的 mac地点
1、点击编辑假造机设置
2、硬件-----网络适配器-----高级
3、点击生成,生成新的mac地点 ,然后点击确定
4、点击处置惩罚器,勾选假造化引擎,然后点击确定
5、重复步骤1-4,修改另外2台假造机的mac地点,勾选假造化选项
修改假造机主机名、ip地点和uuid
1、点击开启此假造机,启动假造机,使用终端登录假造机
2、修改假造机主机名称
- # 修改主机名
- hostnamectl set-hostname k8s-master
- # 查看主机名
- hostname
复制代码
3、修改假造机ip地点和uuid
3.1、生成UUID
3.2、修改网卡信息
- vim /etc/NetworkManager/system-connections/ens160.nmconnection
复制代码 修改以下信息并生存,新的ip地点要在vmware分配的ip范围内
4、重新启动网卡
- nmcli connection reload ens160
复制代码 5、重复步骤1-4修改另外2台假造机的信息
关机做快照 (可选)
1、以上操作做好之后,防止背面做集群的时候出问题,我这里先关机做个快照(关机做快照速度快),这一步并非是必须要做的,看个情面况。
2、做好快照后,记得重新启动全部假造机
集群前置工作(三台呆板都执行)
修改hosts
1、修改hosts,域名映射 下令如下
- echo "192.168.65.130 k8s-master.com k8s-master" >> /etc/hosts
- echo "192.168.65.131 k8s-node1.com k8s-node1" >> /etc/hosts
- echo "192.168.65.132 k8s-node2.com k8s-node2" >> /etc/hosts
- echo "192.168.65.135 k8s-harbor.com k8s-harbor" >> /etc/hosts
复制代码 2、另外2台也同样操作,终极3台假造机的hosts如下,我这里把镜像堆栈的那台呆板也做了域名映射,方便背面使用
k8s-master
k8s-node1
k8s-node2
关闭防火墙
关闭防火墙,并禁止开机自启。修改防火墙的状态后需要把docker重启下
- # 关闭防火墙
- systemctl stop firewalld.service
- # 禁止开机自启
- systemctl disable firewalld.service
- # 重启docker
- systemctl restart docker
复制代码
docker镜像加速
registry-mirrors:镜像加速地点,我这里使用的是阿里云的镜像加速器
insecure-registries:私有堆栈地点,我这里使用的是自己的harbor堆栈,假如你没有使用个人堆栈也可以不用加
- sudo mkdir -p /etc/docker
- sudo tee /etc/docker/daemon.json <<-'EOF'
- {
- "registry-mirrors": ["https://******.mirror.aliyuncs.com"],
- "insecure-registries": ["192.168.65.135","k8s-harbor.com"]
- }
- EOF
- sudo systemctl daemon-reload
- sudo systemctl restart docker
复制代码 docker开机自启
安装容器运行时
转发 IPv4 并让 iptables 看到桥接流量
vm.swappiness参数记得加上,禁止交换分区
- cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
- overlay
- br_netfilter
- EOF
- sudo modprobe overlay
- sudo modprobe br_netfilter
- # 设置所需的 sysctl 参数,参数在重新启动后保持不变
- cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
- net.bridge.bridge-nf-call-iptables = 1
- net.bridge.bridge-nf-call-ip6tables = 1
- net.ipv4.ip_forward = 1
- vm.swappiness = 0
- EOF
- # 应用 sysctl 参数而不重新启动
- sudo sysctl --system
复制代码 关闭交换分区
- # 临时关闭
- swapoff -a
- # 永久关闭
- sed -ri 's/.*swap.*/#&/' /etc/fstab
复制代码
确认 br_netfilter 和 overlay 模块被加载
- lsmod | grep br_netfilter
- lsmod | grep overlay
复制代码
体系变量是否被设置为 1
- sysctl net.bridge.bridge-nf-call-iptables net.bridge.bridge-nf-call-ip6tables net.ipv4.ip_forward
复制代码
安装设置containerd
安装containerd(略过)
这一步在安装docker的时候已经安装过了,不在重复安装,安装docker的时候会安装containerd.io,详细下令如下图
下面是官方文档的参考地点
- https://github.com/containerd/containerd/blob/main/docs/getting-started.md
复制代码 设置containerd
1、查看默认内容
- cat /etc/containerd/config.toml
复制代码 2、生成默认设置内容
- containerd config default > /etc/containerd/config.toml
复制代码 3、修改生成的文件内容
- vim /etc/containerd/config.toml
复制代码 重要修改三个地点
1、SystemdCgroup的值改为true
SystemdCgroup = true
2、替换sandbox的镜像地点和版本
sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.9"
3、添加镜像加速
[plugins]
[plugins."io.containerd.grpc.v1.cri".registry]
...
[plugins."io.containerd.grpc.v1.cri".registry.mirrors]
# 以下内容为新添加
[plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"]
endpoint = ["https://te2osmuz.mirror.aliyuncs.com"]
[plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s.gcr.io"]
endpoint = ["registry.aliyuncs.com/google_containers"]
[plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s-harbor.com"]
endpoint = ["http://k8s-harbor.com:80"]
3.1、修改SystemdCgroup的值
3.2、修改sandbox的镜像地点和版本
- sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.9"
复制代码
3.3、添加私有镜像
- [plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"]
- endpoint = ["https://te2osmuz.mirror.aliyuncs.com"]
- [plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s.gcr.io"]
- endpoint = ["registry.aliyuncs.com/google_containers"]
- [plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s-harbor.com"]
- endpoint = ["http://k8s-harbor.com:80"]
复制代码
重启containerd
- systemctl daemon-reload
- systemctl restart containerd
- systemctl status containerd
复制代码
禁用SELinux
将 SELinux 设置为 permissive 模式(相当于将其禁用)
- sudo setenforce 0
- sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
复制代码
安装工具
添加 Kubernetes 的 yum 堆栈
关于怎样设置阿里云镜像源可以参考:Kubernetes镜像
- cat <<EOF | tee /etc/yum.repos.d/kubernetes.repo
- [kubernetes]
- name=Kubernetes
- baseurl=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.29/rpm/
- enabled=1
- gpgcheck=1
- gpgkey=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.29/rpm/repodata/repomd.xml.key
- EOF
复制代码
安装
- yum install -y kubelet kubeadm kubectl
复制代码
启动kubelet
- systemctl enable kubelet && systemctl start kubelet
复制代码 查看状态
kubelet会不停重启,这是正常现象,等集群初始化好之后就可以正常启动了
主节点初始化 (以下操作只在主节点执行)
生成默认设置文件
- kubeadm config print init-defaults > kubeadm.conf
复制代码 v1.29.5版本输出内容如下:
- apiVersion: kubeadm.k8s.io/v1beta3
- bootstrapTokens:
- - groups:
- - system:bootstrappers:kubeadm:default-node-token
- token: abcdef.0123456789abcdef
- ttl: 24h0m0s
- usages:
- - signing
- - authentication
- kind: InitConfiguration
- localAPIEndpoint:
- advertiseAddress: 1.2.3.4
- bindPort: 6443
- nodeRegistration:
- criSocket: unix:///var/run/containerd/containerd.sock
- imagePullPolicy: IfNotPresent
- name: node
- taints: null
- ---
- apiServer:
- timeoutForControlPlane: 4m0s
- apiVersion: kubeadm.k8s.io/v1beta3
- certificatesDir: /etc/kubernetes/pki
- clusterName: kubernetes
- controllerManager: {}
- dns: {}
- etcd:
- local:
- dataDir: /var/lib/etcd
- imageRepository: registry.k8s.io
- kind: ClusterConfiguration
- kubernetesVersion: 1.29.0
- networking:
- dnsDomain: cluster.local
- serviceSubnet: 10.96.0.0/12
- scheduler: {}
复制代码 修改设置文件内容
重要修改以下几个地方
1、advertiseAddress:改为当前主机的ip地点
2、nodeRegistration.name:改为当前主机的hostname
3、imageRepository:我这里改成自己的私人堆栈地点了,假如自己有的话可以改成自己的,没有的话可以改成阿里云的镜像源地点:registry.aliyuncs.com/google_containers
4、新添加KubeletConfiguration,指定驱动范例。内容如下:
---
kind: KubeletConfiguration
apiVersion: kubelet.config.k8s.io/v1beta1
cgroupDriver: systemd
5、serviceSubnet:这个看环境,假如自己想改的话也可以改,我这里用的默认的
6、podSubnet:指定容器的ip段
7、kubernetesVersion:改为当前对应的版本
上传镜像到私有堆栈
假如不使用私有镜像堆栈的可以直接跳过这一步。直接开始下面的初始化
脚本内容如下push_images.sh
- #!/bin/bash
- # 登录私有仓库
- res=`docker login -u $1-p $2 k8s-harbor.com`
- images=$(kubeadm config images list --kubernetes-version v1.29.5 | awk -F '/' '{print $NF}')
- for item in ${images}
- do
- docker pull registry.aliyuncs.com/google_containers/${item}
- # 镜像重新打标签
- docker tag registry.aliyuncs.com/google_containers/${item} k8s-harbor.com/google_containers/${item}
- # 上传到私有仓库
- docker push k8s-harbor.com/google_containers/${item}
- done
复制代码 赋予可执行权限
- chmod +x push_images.sh
- # 执行脚本,记得传入参数
- ./push_images <username> <password>
复制代码
脚本执行结束后就可以在私有堆栈中看到刚才上传的镜像了
开始初始化
kubeadm.conf:自定义的设置文件的名称
- kubeadm init --config kubeadm.conf
复制代码
将下面这段话复制下来,背面会用到
- Your Kubernetes control-plane has initialized successfully!
- To start using your cluster, you need to run the following as a regular user:
- mkdir -p $HOME/.kube
- sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
- sudo chown $(id -u):$(id -g) $HOME/.kube/config
- Alternatively, if you are the root user, you can run:
- export KUBECONFIG=/etc/kubernetes/admin.conf
- You should now deploy a pod network to the cluster.
- Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
- https://kubernetes.io/docs/concepts/cluster-administration/addons/
- Then you can join any number of worker nodes by running the following on each as root:
- kubeadm join 192.168.65.130:6443 --token abcdef.0123456789abcdef \
- --discovery-token-ca-cert-hash sha256:8eaeb4ce72361621049e32c458d0a931e6e0f6d543529287c63d1c7dc4b35c34
复制代码 创建设置文件
按照初始化成功的提示开始创建设置文件
- mkdir -p $HOME/.kube
- sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
- sudo chown $(id -u):$(id -g) $HOME/.kube/config
复制代码
安装网络插件
这里安装的网络插件是Calico,官方文档
下载并执行设置文件
文件下载后要使用kubectl create 下令去执行,不要使用kubectl apply ,官方文档对这个有特殊说明
- wget https://raw.githubusercontent.com/projectcalico/calico/v3.27.3/manifests/tigera-operator.yaml
复制代码- kubectl create -f tigera-operator.yaml
复制代码
- wget https://raw.githubusercontent.com/projectcalico/calico/v3.27.3/manifests/custom-resources.yaml
复制代码 修改custom-resources.yaml
- vim custom-resources.yaml
复制代码 修改cidr的值
- calicoNetwork:
- ipPools:
- - name: default-ipv4-ippool
- blockSize: 26
- cidr: 192.168.110.0/24 # 修改为kubeadm.conf中podSubnet的值
复制代码
执行 custom-resources.yaml
- kubectl create -f custom-resources.yaml
复制代码
节点加入
节点node1加入
在node1上执行以下下令
- kubeadm join 192.168.65.130:6443 --token abcdef.0123456789abcdef \
- --discovery-token-ca-cert-hash sha256:8eaeb4ce72361621049e32c458d0a931e6e0f6d543529287c63d1c7dc4b35c34
复制代码
节点node2加入
- kubeadm join 192.168.65.130:6443 --token abcdef.0123456789abcdef \
- --discovery-token-ca-cert-hash sha256:8eaeb4ce72361621049e32c458d0a931e6e0f6d543529287c63d1c7dc4b35c34
复制代码
在master查看节点信息
假如节点显示NotReady,则等待几分钟,等全部pod创建完成即可
全部节点加入成功
安装kubepi
我这里并没有安装官方的可视化控制面板,而是使用了另外一个可视化管理工具kubepi
下载镜像
- docker pull 1panel/kubepi
复制代码 创建挂载目录
- mkdir -p /root/server/kubepi
复制代码 启动镜像
- docker run --privileged -p 8010:80 \
- --name kubepi \
- -v /root/server/kubepi:/var/lib/kubepi \
- --restart=unless-stopped \
- -d 1panel/kubepi
复制代码
访问kubepi
访问地点:ip:port 例如我的:192.168.65.130:8010
默认的账户名和密码:admin/kubepi
导入k8s集群
点击导入按钮,设置k8s。k8s的设置信息在$HOME/.kube/config中
查看集群信息
集群搭建过程常见问题
1、安装网络插件calico域名raw.githubusercontent.com无法访问
可以使用第三方网站查看dns对应的ip地点,然后修改自己的hosts文件,这里只是举个例子
- # 修改hosts
- vim /etc/hosts
- # 追加以下内容
- 185.199.111.133 raw.githubusercontent.com
- # 重新下载文件
复制代码 2、no matches for kind "Installation" in version "operator.tigera.io/v1"
1、这个是在安装Calico网络插件的时候遇到的,重要原因是由于我安装的时候使用的是kubectl apply下令,将其更换为kubectl create即可 ,详细原因可以参考官网说明
2、假如不是由于执行下令的问题,就是Calico版本不匹配,更换为合适的版本即可
3、呆板重启后kubelet起不起来
1、看下是不是之前关闭交换分区的时候只是临时关闭了(swapoff -a)详细原因可以参考报错日志,我的没启起来是由于交换分区重启后又打开了,永久关闭即可,永久关闭的下令文章中已提过。
2、确保kubelet、docker、容器运行时(containerd)已启动
补充说明
文章中有两个地方设置了镜像堆栈的地点
1、docker的设置文件/etc/docker/daemon.json文件,这个是使用docker拉取镜像是使用的加速器和堆栈地点
2、容器运行时containerd的设置/etc/containerd/config.toml文件,由于这里使用的容器运行时是containerd,以是k8s拉取镜像的时候不会使用docker下令,而是使用crictl下令,以是k8s拉取镜像的时候会使用config.toml文件中关于镜像相关的设置
结束语
以上便是k8s集群的整个部署过程,部署过程中需要下载镜像信息,可以使用给的脚本将其提前下载下来 ,对于k8s的网络插件官方文档提供了多种,可以根据环境自行安装其中一个即可。最重要的一点要保证kubelet、docker、容器运行时(containerd)设置为开机自启。可以使用下令查看是否开启开机自启:systemctl is-enabled <服务名称>
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |