ToB企服应用市场:ToB评测及商务社交产业平台

标题: 云计算实训49——k8s环镜搭建(续2) [打印本页]

作者: 大连密封材料    时间: 2024-9-18 15:25
标题: 云计算实训49——k8s环镜搭建(续2)
一、Metrics 摆设

在新版的 Kubernetes 中系统资源的采集均使⽤ Metrics-server,可 以通过 Metrics 采集节点和 Pod 的内存、磁盘、CPU和⽹络的使⽤ 率。
(1)复制证书到所有 node 节点
将 master 节点的 front-proxy-ca.crt 复制到所有 Node 节点,每有 ⼀个节点执⾏⼀次,仅需修改命令内的 node 节点主机名即可。
  1. [root@k8s-master calico]# scp
  2. /etc/kubernetes/pki/front-proxy-ca.crt k8snode01:/etc/kubernetes/pki/front-proxy-ca.crt
  3. # 向node01节点发送代理证书
  4. front-proxy-ca.crt                              
  5.  100% 1123   937.0KB/s   00:00    
  6. [root@k8s-master calico]# scp
  7. /etc/kubernetes/pki/front-proxy-ca.crt k8snode02:/etc/kubernetes/pki/front-proxy-ca.crt
  8. # 向node02节点发送代理证书
  9. front-proxy-ca.crt                              
  10.  100% 1123   957.4KB/s   00:00    
  11. # 若有其他node节点,按照格式执⾏下⾯命令,这⾥不⽤执⾏,因
  12. 为node只有两台主机
  13. [root@k8s-master calico]# scp
  14. /etc/kubernetes/pki/front-proxy-ca.crt k8snode03:/etc/kubernetes/pki/front-proxy-ca.crt
复制代码
(2)安装 metrics server
  1. [root@k8s-master calico]# cd /root/k8s-hainstall/kubeadm-metrics-server
  2. # 添加metric server的pod资源
  3. [root@k8s-master] kubeadm-metrics-server]# kubectl create -f comp.yaml
复制代码
(3)查看 metrics server 状态
  1. # 在kube-system命名空间下查看metrics server的pod运⾏状态
  2. [root@master kubeadm-metrics-server]# kubectl get po -n kube-system -l k8s-app=metrics-server
  3. NAME                             READY   STATUS  
  4. RESTARTS   AGE
  5. metrics-server-8df99c47f-mkbfd   1/1     Running   0         34s
  6. # 查看node节点的系统资源使⽤情况
  7. [root@master kubeadm-metrics-server]# kubectl top node
  8. NAME         CPU(cores)   CPU%   MEMORY(bytes)  
  9. MEMORY%  
  10. k8s-node01   51m          1%     831Mi           23%      
  11. k8s-node02   55m          1%     931Mi           25%      
  12. master       107m         2%     1412Mi          39%  
  13.    
  14. [root@master kubeadm-metrics-server]# kubectl top po -A
复制代码
二、Dashboard摆设

Dashboard ⽤于展示集群中的各类资源,同时也可以通过 Dashboard 实时查看 Pod 的⽇志和在容器中执⾏⼀些命令等。
(1)安装组件
  1. [root@master kubeadm-metrics-server]# cd /root/k8s-ha-install/dashboard/
  2. # 建⽴dashboard的pod资源
  3. [root@master dashboard]# kubectl create -f .
复制代码
(2)登录 dashboard
如果是⾕歌欣赏器,需要在启动⽂件中加⼊下⾯的启动参数,⽤于解决⽆法访问 Dashboard的问题
--test-type --ignore-certificate-errors

(3)更改 svc 模式
  1. [root@master dashboard]# kubectl edit svc kubernetes-dashboard -n kubernetes-dashboard
  2. # edit:进⼊kubernetes的⽂本编辑器
  3. # svc:指定某个服务项,这⾥指定的是kubernetes-dashboard
  4. # -n:指定命名空间,kubernetes-dashboard
  5. # 命令执⾏后相当于进⼊vim⽂本编辑器,不要⽤⿏标滚轮,会输出乱码的!
  6. #可以使⽤“/”搜索,输⼊“/type”找到⽬标,如果已经为NodePort,忽略此步骤
  7. ......省略部分内容......
  8. selector:
  9.   k8s-app: kubernetes-dashboard
  10. sessionAffinity: None
  11. type: NodePort
复制代码
图示:

(4)查看访问端⼝号
  1. # 获取kubernetes-dashboard状态信息,包含端⼝,服务IP等
  2. [root@master dashboard]# kubectl get svc kubernetes-dashboard -n kubernetes-dashboard
复制代码
找到端⼝号后,通过 master 的 IP+端⼝即可访问 dashboard(端⼝ 为终端查询到的端⼝,要⽤ https 协议访问)

(5)创建登录 token
  1. [root@master dashboard]# kubectl create token admin-user -n kube-system
复制代码
在“输⼊ token *”内输⼊终端⽣成的 token

三、摆设Kube-proxy

(1)改为 ipvs模式
  1. [root@master ~]# kubectl edit cm kube-proxy -n kube-system
  2. # 使⽤“/”找到“mode”,按照如下修改
  3. mode: ipvs
复制代码
(2)更新 Kube-Proxy 的 Pod
  1. [root@master ~]# kubectl patch daemonset kubeproxy -p "{"spec":{"template":{"metadata":{"annotations":{"date":"`date +'%s'`"}}}}}" -n kube-system
  2. daemonset.apps/kube-proxy patched
  3. [root@master ~]# curl 127.0.0.1:10249/proxyMode
  4. ipvs
复制代码
四、集群可⽤性验证

1. 验证节点
  1. # 全部为Ready,是正常
  2. [root@master ~]# kubectl get node
  3. NAME         STATUS   ROLES           AGE  
  4. VERSION
  5. k8s-node01   Ready   <none>         156m   v1.28.2
  6. k8s-node02   Ready   <none>         155m   v1.28.2
  7. master       Ready   control-plane   157m   v1.28.2
复制代码
2. 验证 Pod
  1. # 全部为running,表示正常
  2. [root@master ~]# kubectl get po -A
  3. NAMESPACE          NAME                                    READY   STATUS   RESTARTS   AGE
  4. kube-system        calico-kube-controllers6d48795585-wj8g5 1/1     Running   0        156m
  5. kube-system        calico-node-bk4p5                       1/1     Running   0        156m
  6. kube-system        calico-node-kmsh7                       1/1     Running   0        156m
  7. kube-system        calico-node-qthgh                       1/1     Running   0        156m
  8. kube-system        coredns-6554b8b87f-jdc2b                1/1     Running   0        159m
  9. kube-system        coredns-6554b8b87f-thftb                1/1     Running   0        159m
  10. kube-system        etcd-master                             1/1     Running   0        159m
  11. kube-system        kube-apiserver-master                   1/1     Running   0        159m
  12. ............................
复制代码
3. 验证集群⽹段是否冲突
  1. # 查看服务的⽹段
  2. [root@master ~]# kubectl get svc
  3. NAME         TYPE       CLUSTER-IP   EXTERNAL-IP PORT(S)   AGE
  4. kubernetes   ClusterIP   10.96.0.1   <none>        443/TCP   160m
  5. # 查看所有命名空间下的所有⽹段,再与服务的⽹段进⾏⽐较
  6. [root@master ~]# kubectl get po -A -owide
复制代码
4. 验证是否可正常创建参数
  1. # 已创建,表示正常
  2. [root@master ~]# kubectl create deploy clustertest--
  3. image=registry.cnbeijing.aliyuncs.com/dotbalo/debug-tools
  4. -- sleep 3600 deployment.apps/cluster-test created
  5. [root@master ~]# kubectl get po
  6. NAME                           READY   STATUS   RESTARTS   AGE
  7. cluster-test-66bb44bd88-sq8fx   1/1     Running   0         41s
  8. [root@master ~]# kubectl get po -owide
  9. NAME   READY   STATUS   RESTARTS   AGE   IP     NODE    NOMINATED NODE   READINESS GATES
  10. cluster-test-66bb44bd88-sq8fx 1/1 Running  0  48s  172.16.58.196  k8s-node02 <none> <none>
复制代码
5. Pod 必须可以或许解析 Service
同 namespace 和跨 namespace
(1)nslookup kubernetes
  1. # 进⼊pod下的某个容器
  2. [root@master ~]# kubectl exec -it cluster-test66bb44bd88-sq8fx -- bash
  3. (06:36 cluster-test-66bb44bd88-sq8fx:/) nslookup kubernetes
  4. Server: 10.96.0.10
  5. Address: 10.96.0.10#53
  6. Name: kubernetes.default.svc.cluster.local
  7. Address: 10.96.0.1
  8. # 可以解析到server的IP地址说明同namespace可以解析
复制代码
(2)nslookup kube-dns.kube-system
  1. (06:36 cluster-test-66bb44bd88-sq8fx:/) nslookup kube-dns.kube-system
  2. Server: 10.96.0.10
  3. Address: 10.96.0.10#53
  4. Name: kube-dns.kube-system.svc.cluster.local
  5. Address: 10.96.0.10
  6. # 可以解析到server的第⼗个ip,说明可以解析到kube-dns,说明跨namespace也可解析
复制代码
6. 确认是否可访问 Kubernetes 的 443 和 kube-dns 的 53
每个节点都必须能访问 Kubernetes 的 kubernetes svc 443 和 kube-dns 的 service 53
  1. [root@master ~]# curl https://10.96.0.1:443
  2. curl: (60) SSL certificate problem: unable to get local issuer certificate
  3. More details here:
  4. https://curl.haxx.se/docs/sslcerts.html
  5. curl failed to verify the legitimacy of the server and therefore could not
  6. establish a secure connection to it. To learn more about this situation and
  7. how to fix it, please visit the web page mentioned above.
  8. [root@master ~]# curl 10.96.0.10:53
  9. curl: (52) Empty reply from server
复制代码
7. 确认各 Pod 之间是否可正常通讯
同 namespace 和跨 namespace
  1. [root@master ~]# kubectl get po -nkube-system -owide
  2. [root@master ~]# kubectl get po -owide
  3. [root@master ~]# kubectl exec -it cluster-test66bb44bd88-sq8fx -- bash
复制代码
同呆板和跨呆板
  1. [root@master ~]# kubectl get po -owide
  2. [root@master ~]# ping 172.16.58.196 -c 3
复制代码

五、注意事项

注意:kubeadm 安装的集群,证书有效期默认是⼀年。master 节点 的 kube-apiserver、kube-scheduler、kube-controller-manager、 etcd 都是以容器运⾏的。
可以通过 kubectl get po -n kube-system 查看。
启动和⼆进制不同的是,kubelet 的配置⽂件在 /etc/sysconfig/kubelet 和/var/lib/kubelet/config.yaml
修改后需要重启 kubelet 进程。
其他组件的配置⽂件在 /etc/kubernetes/manifests ⽬录下,⽐如 kube-apiserver.yaml,该 yaml ⽂件更改后,kubelet 会⾃动革新配 置,也就是会重启 pod。不能再次创建该⽂件
kube-proxy 的配置在 kube-system 命名空间下的 configmap 中, 可以通过:
   kubectl edit cm kube-proxy -n kube-system
  进⾏更改,更改完成后,可以通过 patch 重启 kube-proxy:
   kubectl patch daemonset kube-proxy -p "{\"spec\": {\"template\":{\"metadata\":{\"annotations\": {\"date\":\"`date +'%s'`\"}}}}}" -n kube-system
  Kubeadm 安装后,master 节点默认不允许摆设 Pod,可以通过以 下⽅式删除 Taint,即可摆设 Pod:
   kubectl taint node -l noderole.kubernetes.io/control-plane noderole.kubernetes.io/control-plane:NoSchedule-

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4