[kubernetes]二进制方式部署单机k8s-v1.30.5

  金牌会员 | 2024-10-5 15:25:15 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 856|帖子 856|积分 2568

媒介

之前在单机测试k8s的kind最近故障了,虚拟机运行个几分钟后就宕机了,不知道是根因是什么,而且kind部署k8s不太好做一些个性化设置,干脆用二进制方式重新搭一个单机k8s。
因为是用来开辟测试的,所以control-panel就不做高可用了,etcd+apiserver+controller-manager+scheduler都只有一个实例。
情况信息:

  • 主机:Debian 12.7,4核CPU、4GB内存、30GB存储(只是部署一个k8s的话,2C2G的设置也足够)
  • 容器运行时:containerd v1.7.22
  • etcd: v3.4.34
  • kubernetes:v1.30.5
  • cni: calico v3.25.0
本文中的大部门设置文件已上传到gitee - k8s-note,目录为"安装k8s/二进制单机部署k8s-v1.30.5",如有需要可直接clone repo.
准备

本节下令大部门都要root权限,如果执行下令时提示权限不足,可自行切换root用户或利用sudo。
调解主机参数


  • 修改主机名。kubernetes要求每个节点的hostname不一样
  1. hostnamectl set-hostname k8s-node1
复制代码

  • 修改/etc/hosts文件。如果内网有自建DNS可忽略
  1. 192.168.0.31 k8s-node1
复制代码

  • 安装时间同步服务。如果有多台主机,要注意主机之间的时间要同步。内网如果有时间同步服务器,可以修改chrony的设置来指向内网时间同步服务器
  1. sudo apt install -y chrony
  2. sudo systemctl start chrony
复制代码

  • 关闭swap。默认情况下,k8s没法在利用swap的主机上运行。这里用的临时关闭下令,固化设置需要修改/etc/fstab文件,将swap干系设置行删除或解释。
  1. sudo swapoff -a
复制代码

  • 装载内核模块。这步没做的话,下一步设置系统参数会报错。
  1. # 1. 添加配置
  2. cat <<EOF > /etc/modules-load.d/containerd.conf
  3. overlay
  4. br_netfilter
  5. EOF
  6. # 2. 立即装载
  7. modprobe overlay
  8. modprobe br_netfilter
  9. # 3. 检查装载。如果没有输出结果则说明没有装载成功。
  10. lsmod | grep br_netfilter
复制代码

  • 编辑设置文件/etc/containerd/config.toml,修改以下内容
  1. # 1. 添加配置文件
  2. cat << EOF > /etc/sysctl.d/k8s-sysctl.conf
  3. net.bridge.bridge-nf-call-ip6tables = 1
  4. net.bridge.bridge-nf-call-iptables = 1
  5. net.ipv4.ip_forward = 1
  6. user.max_user_namespaces=28633
  7. vm.swappiness = 0
  8. EOF
  9. # 2. 配置生效
  10. sysctl -p /etc/sysctl.d/k8s-sysctl.conf
复制代码

  • 启动containerd
  1. # 1. 安装依赖
  2. apt install -y ipset ipvsadm
  3. # 2. 立即装载
  4. modprobe -- ip_vs
  5. modprobe -- ip_vs_rr
  6. modprobe -- ip_vs_wrr
  7. modprobe -- ip_vs_sh
  8. modprobe -- nf_conntrack
  9. # 3. 固化到配置文件
  10. cat << EOF > /etc/modules-load.d/ipvs.conf
  11. ip_vs
  12. ip_vs_rr
  13. ip_vs_wrr
  14. ip_vs_sh
  15. nf_conntrack
  16. EOF
  17. # 4. 检查是否已装载
  18. lsmod |grep ip_vs
复制代码

  • 执行下令测试下containerd是否正常。没报错一般就是正常的
  1. tar xf cri-containerd-cni-1.7.22-linux-amd64.tar.gz -C /
复制代码
天生ca证书

后面的k8s和etcd集群都会用到ca证书。如果组织能提供统一的CA认证中心,则直接利用组织颁发的CA证书即可。如果没有统一的CA认证中心,则可以通过颁发自签名的CA证书来完成安全设置。这里自行天生一个ca证书。
  1. mkdir /etc/containerd
  2. containerd config default > /etc/containerd/config.toml
复制代码
安装etcd

etcd的安装包可以从官网下载,下载后解压。可以将压缩包中的etcd和etcdctl放到情况变量PATH中的目录。

  • 编辑文件etcd_ssl.cnf。IP地址为etcd节点。
  1. # 对于使用systemd作为init system的linux发行版,官方建议用systemd作为容器cgroup driver
  2. # false改成true
  3. SystemdCgroup = true
  4. # pause镜像的地址改为自己在阿里云上传的镜像地址。如果是内网环境,可改为内网registry的地址
  5. sandbox_image = "registry.cn-hangzhou.aliyuncs.com/rainux/pause:3.9"
复制代码

  • 创建etcd服务端证书
  1. systemctl start containerd
  2. systemctl enable containerd
复制代码

  • 创建etcd客户端证书
  1. crictl images
复制代码

  • 编辑etcd的设置文件。目录、文件路径,IP、端口等信息按实际情况修改
  1. # 生成私钥文件ca.key
  2. openssl genrsa -out ca.key 2048
  3. # 根据私钥文件生成根证书文件ca.crt
  4. # /CN为master的主机名或IP地址
  5. # days为证书的有效期
  6. openssl req -x509 -new -nodes -key ca.key -subj "/CN=k8s-node1" -days 36500 -out ca.crt
  7. # 拷贝ca证书到/etc/kubernetes/pki
  8. mkdir -p /etc/kubernetes/pki
  9. cp ca.crt ca.key /etc/kubernetes/pki/
复制代码

  • 编辑/etc/systemd/system/etcd.service,注意根据实际修改设置文件和etcd二进制文件的路径
  1. [ req ]
  2. req_extensions = v3_req
  3. distinguished_name = req_distinguished_name
  4. [ req_distinguished_name ]
  5. [ v3_req ]
  6. basicConstraints = CA:FALSE
  7. keyUsage = nonRepudiation, digitalSignature, keyEncipherment
  8. subjectAltName = @alt_names
  9. [ alt_names ]
  10. IP.1 = 192.168.0.31
复制代码

  • 启动etcd
  1. openssl genrsa -out etcd_server.key 2048
  2. openssl req -new -key etcd_server.key -config etcd_ssl.cnf -subj "/CN=etcd-server" -out etcd_server.csr
  3. openssl x509 -req -in etcd_server.csr -CA ca.crt -CAkey ca.key -CAcreateserial -days 3650 -extensions v3_req -extfile etcd_ssl.cnf -out etcd_server.crt
复制代码

  • 利用etcd客户端验证下etcd状态
  1. openssl genrsa -out etcd_client.key 2048
  2. openssl req -new -key etcd_client.key -config etcd_ssl.cnf -subj "/CN=etcd-client" -out etcd_client.csr
  3. openssl x509 -req -in etcd_client.csr -CA ca.crt -CAkey ca.key -CAcreateserial -days 3650 -extensions v3_req -extfile etcd_ssl.cnf -out etcd_client.crt
复制代码
安装control-panel

k8s的二进制文件安装包可以从github下载:https://github.com/kubernetes/kubernetes/releases
在changelog中找到二进制包的下载链接,下载server binary即可,内里包含了master和node的二进制文件。
解压后将其中的二进制文件挪到 /usr/local/bin目录
安装apiserver

apiserver的核心功能是提供k8s各类资源对象的增删改查及watch等HTTP REST接口,成为集群内各个功能模块之间数据交互和通信的中心枢纽,是整个系统的数据总线和数据中心。除此之外,它还是集群管理的API入口,是资源配额控制的入口,提供了完备的集群安全机制。

  • 编辑master_ssl.cnf。DNS.5为三台服务器的主机名,另行设置/etc/hosts。IP.1为Master Service虚拟服务的Cluster IP地址,IP.2为apiserver的服务器IP
  1. ETCD_NAME=etcd1
  2. ETCD_DATA_DIR=/home/rainux/apps/etcd/data
  3. ETCD_CERT_FILE=/home/rainux/apps/etcd/certs/etcd_server.crt
  4. ETCD_KEY_FILE=/home/rainux/apps/etcd/certs/etcd_server.key
  5. ETCD_TRUSTED_CA_FILE=/home/rainux/apps/certs/ca.crt
  6. ETCD_CLIENT_CERT_AUTH=true
  7. ETCD_LISTEN_CLIENT_URLS=https://192.168.0.31:2379
  8. ETCD_ADVERTISE_CLIENT_URLS=https://192.168.0.31:2379
  9. ETCD_PEER_CERT_FILE=/home/rainux/apps/etcd/certs/etcd_server.crt
  10. ETCD_PEER_KEY_FILE=/home/rainux/apps/etcd/certs/etcd_server.key
  11. ETCD_PEER_TRUSTED_CA_FILE=/home/rainux/apps/certs/ca.crt
  12. ETCD_LISTEN_PEER_URLS=https://192.168.0.31:2380
  13. ETCD_INITIAL_ADVERTISE_PEER_URLS=https://192.168.0.31:2380
  14. ETCD_INITIAL_CLUSTER_TOKEN=etcd-cluster
  15. ETCD_INITIAL_CLUSTER="etcd1=https://192.168.0.31:2380"
  16. ETCD_INITIAL_CLUSTER_STATE=new
复制代码

  • 天生ssl证书文件
  1. [Unit]
  2. Description=etcd key-value store
  3. Documentation=https://github.com/etcd-io/etcd
  4. After=network.target
  5. [Service]
  6. User=rainux
  7. EnvironmentFile=/home/rainux/apps/etcd/conf/etcd.conf
  8. ExecStart=/home/rainux/apps/etcd/etcd
  9. Restart=on-failure
  10. [Install]
  11. WantedBy=multi-user.target
复制代码

  • 利用cfssl创建sa.pub和sa-key.pem。cfssl和cfssljson可以从GitHub - cfssl下载
  1. systemctl daemon-reload
  2. systemctl start etcd
  3. systemctl enable etcd
  4. # 检查service状态
  5. systemctl status etcd
复制代码

  • 编辑kube-apiserver的设置文件,注意根据实际情况修改文件路径和etcd地址
  1. etcdctl --cacert=/etc/kubernetes/pki/ca.crt --cert=$HOME/apps/certs/etcd_client.crt --key=$HOME/apps/certs/etcd_client.key --endpoints=https://192.168.0.31:2379 endpoint health
  2. # 正常情况下会有类似以下输出
  3. https://192.168.0.31:2379 is healthy: successfully committed proposal: took = 13.705325ms
复制代码

  • 编辑service文件。/etc/systemd/system/kube-apiserver.service
  1. [req]
  2. req_extensions = v3_req
  3. distinguished_name = req_distinguished_name
  4. [req_distinguished_name]
  5. [ v3_req ]
  6. basicConstraints = CA:FALSE
  7. keyUsage = nonRepudiation, digitalSignature, keyEncipherment
  8. subjectAltName = @alt_names
  9. [alt_names]
  10. DNS.1 = kubernetes
  11. DNS.2 = kubernetes.default
  12. DNS.3 = kubernetes.default.svc
  13. DNS.4 = kubernetes.default.svc.cluster.local
  14. DNS.5 = k8s-node1
  15. IP.1 = 169.169.0.1
  16. IP.2 = 192.168.0.31
复制代码

  • 启动apiserver
  1. openssl genrsa -out apiserver.key 2048
  2. openssl req -new -key apiserver.key -config master_ssl.cnf -subj "/CN=k8s-node1" -out apiserver.csr
  3. openssl x509 -req -in apiserver.csr -CA ca.crt -CAkey ca.key -CAcreateserial -days 36500 -extensions v3_req -extfile master_ssl.cnf -out apiserver.crt
复制代码

  • 天生客户端证书
  1. cat<<EOF > sa-csr.json
  2. {
  3.     "CN":"sa",
  4.     "key":{
  5.         "algo":"rsa",
  6.         "size":2048
  7.     },
  8.     "names":[
  9.         {
  10.             "C":"CN",
  11.             "L":"BeiJing",
  12.             "ST":"BeiJing",
  13.             "O":"k8s",
  14.             "OU":"System"
  15.         }
  16.     ]
  17. }
  18. EOF
  19. cfssl gencert -initca sa-csr.json | cfssljson -bare sa -
  20. openssl x509 -in sa.pem -pubkey -noout > sa.pub
复制代码

  • 创建客户端毗连apiserver所需的kubeconfig设置文件。其中server为nginx监听地址。注意根据实际修改设置。这个kubeconfig设置文件也可以给kubectl利用,所以开辟情况中可以直接文件路径置为$HOME/.kube/config
  1. KUBE_API_ARGS="--secure-port=6443 \
  2. --tls-cert-file=/home/rainux/apps/certs/apiserver.crt \
  3. --tls-private-key-file=/home/rainux/apps/certs/apiserver.key \
  4. --client-ca-file=/home/rainux/apps/certs/ca.crt \
  5. --service-account-issuer=https://kubernetes.default.svc.cluster.local \
  6. --service-account-key-file=/home/rainux/apps/certs/sa.pub \
  7. --service-account-signing-key-file=/home/rainux/apps/certs/sa-key.pem \
  8. --apiserver-count=1 \
  9. --endpoint-reconciler-type=master-count \
  10. --etcd-servers=https://192.168.0.31:2379 \
  11. --etcd-cafile=/home/rainux/apps/certs/ca.crt \
  12. --etcd-certfile=/home/rainux/apps/certs/etcd_client.crt \
  13. --etcd-keyfile=/home/rainux/apps/certs/etcd_client.key \
  14. --service-cluster-ip-range=169.169.0.0/16 \
  15. --service-node-port-range=30000-32767 \
  16. --allow-privileged=true \
  17. --audit-log-maxsize=100 \
  18. --audit-log-maxage=15 \
  19. --audit-log-path=/home/rainux/apps/kubernetes/logs/apiserver.log --v=2"
复制代码
安装kube-controller-manager

controller-manager通过apiserver提供的接口实时监控集群中特定资源的状态变化,当资源对象不符合预期状态时,controller-manager会尝试将其状态调解为盼望的状态。

  • 编辑设置文件 /home/rainux/apps/kubernetes/conf/kube-controller-manager.conf
  1. [Unit]
  2. Description=Kubernetes API Server
  3. Documentation=https://github.com/kubernetes/kubernetes
  4. After=etcd.service
  5. [Service]
  6. EnvironmentFile=/home/rainux/apps/kubernetes/conf/apiserver.conf
  7. ExecStart=/usr/local/bin/kube-apiserver $KUBE_API_ARGS
  8. Restart=on-failure
  9. [Install]
  10. WantedBy=multi-user.target
复制代码

  • 编辑service文件/etc/systemd/system/kube-controller-manager.service
  1. systemctl daemon-reload
  2. systemctl start kube-apiserver
  3. systemctl enable kube-apiserver
  4. # 检查service状态
  5. systemctl status kube-apiserver
复制代码

  • 启动kube-controller-manager
  1. openssl genrsa -out client.key 2048
  2. # /CN的名称用于标识连接apiserver的客户端用户名称
  3. openssl req -new -key client.key -subj "/CN=admin" -out client.csr
  4. openssl x509 -req -in client.csr -CA ca.crt -CAkey ca.key -CAcreateserial -out client.crt -days 36500
复制代码
安装kube-scheduler


  • 编辑设置文件/home/rainux/apps/kubernetes/conf/kube-scheduler.conf
  1. apiVersion: v1
  2. kind: Config
  3. clusters:
  4. - name: default
  5.   cluster:
  6.     server: https://192.168.0.31:6443
  7.     certificate-authority: /home/rainux/apps/certs/ca.crt
  8. users:
  9. - name: admin
  10.   user:
  11.     client-certificate: /home/rainux/apps/certs/client.crt
  12.     client-key: /home/rainux/apps/certs/client.key
  13. contexts:
  14. - context:
  15.     cluster: default
  16.     user: admin
  17.   name: default
  18. current-context: default
复制代码

  • 编辑service文件 /etc/systemd/system/kube-scheduler.service
  1. KUBE_CONTROLLER_MANAGER_ARGS="--kubeconfig=/home/rainux/.kube/config \
  2. --leader-elect=true \
  3. --service-cluster-ip-range=169.169.0.0/16 \
  4. --service-account-private-key-file=/home/rainux/apps/certs/apiserver.key \
  5. --root-ca-file=/home/rainux/apps/certs/ca.crt \
  6. --v=0"
复制代码

  • 启动
  1. [Unit]
  2. Description=Kubernetes Controller Manager
  3. Documentation=https://github.com/kubernetes/kubernetes
  4. After=kube-apiserver.service
  5. [Service]
  6. EnvironmentFile=/home/rainux/apps/kubernetes/conf/kube-controller-manager.conf
  7. ExecStart=/usr/local/bin/kube-controller-manager $KUBE_CONTROLLER_MANAGER_ARGS
  8. Restart=on-failure
  9. [Install]
  10. WantedBy=multi-user.target
复制代码
安装worker node

安装kubelet


  • 编辑文件 /home/rainux/apps/kubernetes/conf/kubelet.conf。注意根据实际修改hostname-override和kubeconfig。
  1. systemctl daemon-reload
  2. systemctl start kube-controller-manager
  3. systemctl enable kube-controller-manager
复制代码

  • 编辑/home/rainux/apps/kubernetes/conf/kubelet.config文件。
  1. KUBE_SCHEDULER_ARGS="--kubeconfig=/home/rainux/.kube/config \
  2. --leader-elect=true \
  3. --v=0"
复制代码

  • 编辑service文件 /etc/systemd/system/kubelet.service
  1. [Unit]
  2. Description=Kubernetes Scheduler
  3. Documentation=https://github.com/kubernetes/kubernetes
  4. After=kube-apiserver.service
  5. [Service]
  6. EnvironmentFile=/home/rainux/apps/kubernetes/conf/kube-scheduler.conf
  7. ExecStart=/usr/local/bin/kube-scheduler $KUBE_SCHEDULER_ARGS
  8. Restart=on-failure
  9. [Install]
  10. WantedBy=multi-user.target
复制代码

  • 启动kubelet
  1. systemctl daemon-reload
  2. systemctl start kube-scheduler
  3. systemctl enable kube-scheduler
复制代码
安装kube-proxy


  • 编辑设置文件/home/rainux/apps/kubernetes/conf/kube-proxy.conf。proxy-mode参数默认为iptables,如果安装了ipvs,建议修改为ipvs
  1. KUBELET_ARGS="--kubeconfig=/home/rainux/.kube/config \
  2. --config=/home/rainux/apps/kubernetes/conf/kubelet.config \
  3. --hostname-override=k8s-node1 \
  4. --v=0 \
  5. --container-runtime-endpoint="unix:///run/containerd/containerd.sock"
复制代码

  • 编辑service文件 /etc/systemd/system/kube-proxy.service
  1. kind: KubeletConfiguration
  2. apiVersion: kubelet.config.k8s.io/v1beta1
  3. address: 0.0.0.0  # 服务监听地址
  4. port: 10250  # 服务监听端口号
  5. cgroupDriver: systemd  # cgroup驱动,默认为cgroupfs, 建议systemd
  6. clusterDNS: ["169.169.0.100"]  # 集群DNS地址
  7. clusterDomain: cluster.local  # 服务DNS域名后缀
  8. authentication:  # 是否允许匿名访问或者是否使用webhook鉴权
  9.   anonymous:
  10.     enabled: true
复制代码

  • 启动kube-proxy
  1. [Unit]
  2. Description=Kubernetes Kubelet Server
  3. Documentation=https://github.com/kubernetes/kubernetes
  4. After=containerd.service
  5. [Service]
  6. EnvironmentFile=/home/rainux/apps/kubernetes/conf/kubelet.conf
  7. ExecStart=/usr/local/bin/kubelet $KUBELET_ARGS
  8. Restart=on-failure
  9. [Install]
  10. WantedBy=multi-user.target
复制代码
安装calico


  • 下载calico设置文件
  1. systemctl daemon-reload
  2. systemctl start kubelet
  3. systemctl enable kubelet
复制代码

  • 如果可以正常访问docker hub,则可以直接利用设置文件来创建calico资源对象,否则需要修改其中的镜像地址。如果用的calico版本也是3.25.0,可以用我在阿里云上传的镜像。
  1. KUBE_PROXY_ARGS="--kubeconfig=/home/rainux/.kube/config \
  2. --hostname-override=k8s-node1 \
  3. --proxy-mode=ipvs \
  4. --v=0"
复制代码

  • 执行安装
  1. [Unit]
  2. Description=Kubernetes Kube-Proxy Server
  3. Documentation=https://github.com/kubernetes/kubernetes
  4. After=kubelet.service
  5. [Service]
  6. EnvironmentFile=/home/rainux/apps/kubernetes/conf/kube-proxy.conf
  7. ExecStart=/usr/local/bin/kube-proxy $KUBE_PROXY_ARGS
  8. Restart=on-failure
  9. [Install]
  10. WantedBy=multi-user.target
复制代码

  • 查看calico的pod是否正常运行。如果正常,状态应该都是running;若不正常,则需要describe pod的信息查看什么问题
  1. systemctl daemon-reload
  2. systemctl start kube-proxy
  3. systemctl enable kube-proxy
复制代码
安装CoreDNS


  • 编辑部署文件 coredns.yaml。注意service中指定了clusterIP,以及镜像地址改为了我在阿里云上传的。
  1. wget https://docs.projectcalico.org/manifests/calico.yaml
复制代码

  • 创建coredns服务
  1. image: registry.cn-hangzhou.aliyuncs.com/rainux/calico:cni-v3.25.0
  2. image: registry.cn-hangzhou.aliyuncs.com/rainux/calico:node-v3.25.0
  3. image: registry.cn-hangzhou.aliyuncs.com/rainux/calico:kube-controllers-v3.25.0
复制代码

  • 在repo中我放了一份test-dns.yaml用来测试dns是否正常。创建这个测试对象后,在debian的pod中安装nslookup,测试可否解析出svc-nginx
  1. kubectl create -f calico.yaml
复制代码
安装metrics-server

在新版k8s中,系统资源的收罗和HPA功能均需要利用metrics-server

  • 编辑设置文件。注意镜像地址
  1. kubectl get pods -A
复制代码

  • 创建干系资源对象
  1. ---
  2. apiVersion: v1
  3. kind: ConfigMap
  4. metadata:
  5.   name: coredns
  6.   namespace: kube-system
  7.   labels:
  8.       addonmanager.kubernetes.io/mode: EnsureExists
  9. data:
  10.   Corefile: |
  11.     cluster.local {
  12.         errors
  13.         health {
  14.           lameduck 5s
  15.         }
  16.         ready
  17.         kubernetes cluster.local 169.169.0.0/16 {
  18.           fallthrough in-addr.arpa ip6.arpa
  19.         }
  20.         prometheus :9153
  21.         forward . /etc/resolv.conf
  22.         cache 30
  23.         loop
  24.         reload
  25.         loadbalance
  26.     }
  27.     . {
  28.         cache 30
  29.         loadbalance
  30.         forward . /etc/resolv.conf
  31.     }  
  32. ---
  33. apiVersion: apps/v1
  34. kind: Deployment
  35. metadata:
  36.   name: coredns
  37.   namespace: kube-system
  38.   labels:
  39.     k8s-app: kube-dns
  40.     kubernetes.io/name: "CoreDNS"
  41. spec:
  42.   replicas: 1
  43.   strategy:
  44.     type: RollingUpdate
  45.     rollingUpdate:
  46.       maxUnavailable: 1
  47.   selector:
  48.     matchLabels:
  49.       k8s-app: kube-dns
  50.   template:
  51.     metadata:
  52.       labels:
  53.         k8s-app: kube-dns
  54.     spec:
  55.       priorityClassName: system-cluster-critical
  56.       tolerations:
  57.         - key: "CriticalAddonsOnly"
  58.           operator: "Exists"
  59.       nodeSelector:
  60.         kubernetes.io/os: linux
  61.       affinity:
  62.          podAntiAffinity:
  63.            preferredDuringSchedulingIgnoredDuringExecution:
  64.            - weight: 100
  65.              podAffinityTerm:
  66.                labelSelector:
  67.                  matchExpressions:
  68.                    - key: k8s-app
  69.                      operator: In
  70.                      values: ["kube-dns"]
  71.                topologyKey: kubernetes.io/hostname
  72.       containers:
  73.       - name: coredns
  74.         image: registry.cn-hangzhou.aliyuncs.com/rainux/coredns:1.11.3
  75.         imagePullPolicy: IfNotPresent
  76.         resources:
  77.           limits:
  78.             memory: 170Mi
  79.           requests:
  80.             cpu: 100m
  81.             memory: 70Mi
  82.         args: [ "-conf", "/etc/coredns/Corefile" ]
  83.         volumeMounts:
  84.         - name: config-volume
  85.           mountPath: /etc/coredns
  86.           readOnly: true
  87.         ports:
  88.         - containerPort: 53
  89.           name: dns
  90.           protocol: UDP
  91.         - containerPort: 53
  92.           name: dns-tcp
  93.           protocol: TCP
  94.         - containerPort: 9153
  95.           name: metrics
  96.           protocol: TCP
  97.         securityContext:
  98.           allowPrivilegeEscalation: false
  99.           capabilities:
  100.             add:
  101.             - NET_BIND_SERVICE
  102.             drop:
  103.             - all
  104.           readOnlyRootFilesystem: true
  105.         livenessProbe:
  106.           httpGet:
  107.             path: /health
  108.             port: 8080
  109.             scheme: HTTP
  110.           initialDelaySeconds: 60
  111.           timeoutSeconds: 5
  112.           successThreshold: 1
  113.           failureThreshold: 5
  114.         readinessProbe:
  115.           httpGet:
  116.             path: /ready
  117.             port: 8181
  118.             scheme: HTTP
  119.       dnsPolicy: Default
  120.       volumes:
  121.         - name: config-volume
  122.           configMap:
  123.             name: coredns
  124.             items:
  125.             - key: Corefile
  126.               path: Corefile
  127. ---
  128. apiVersion: v1
  129. kind: Service
  130. metadata:
  131.   name: kube-dns
  132.   namespace: kube-system
  133.   annotations:
  134.     prometheus.io/port: "9153"
  135.     prometheus.io/scrape: "true"
  136.   labels:
  137.     k8s-app: kube-dns
  138.     kubernetes.io/cluster-service: "true"
  139.     kubernetes.io/name: "CoreDNS"
  140. spec:
  141.   selector:
  142.     k8s-app: kube-dns
  143.   clusterIP: 169.169.0.100
  144.   ports:
  145.   - name: dns
  146.     port: 53
  147.     protocol: UDP
  148.   - name: dns-tcp
  149.     port: 53
  150.     protocol: TCP
  151.   - name: metrics
  152.     port: 9153
  153.     protocol: TCP
复制代码

  • 执行干系下令测试是否安装正常
  1. kubectl create -f coredns.yaml
复制代码
小结

按照以上步骤执行完成后,一个用于开辟测试的单机k8s就搭建好了,而且增加节点也比较方便,同时二进制部署方式也便于修改集群参数。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表