ToB企服应用市场:ToB评测及商务社交产业平台

标题: Kubernetes(K8S) Pod 介绍 [打印本页]

作者: 宁睿    时间: 2022-11-28 13:05
标题: Kubernetes(K8S) Pod 介绍
Pod 是 k8s 系统中可以创建和管理的最小单元, 是资源对象模型中由用户创建或部署的最小资源对象模型, 也是在 k8s 上运行容器化应用的资源对象, 其他的资源对象都是用来支撑或者扩展 Pod 对象功能的, 比如控制器对象是用来管控 Pod 对象的, Service 或者Ingress 资源对象是用来暴露 Pod 引用对象的, PersistentVolume 资源对象是用来为 Pod提供存储等等, k8s 不会直接处理容器, 而是 Pod, Pod 是由一个或多个 container 组成Pod 是 Kubernetes 的最重要概念, 每一个 Pod 都有一个特殊的被称为” 根容器“的 Pause容器。 Pause 容器对应的镜 像属于 Kubernetes 平台的一部分, 除了 Pause 容器, 每个 Pod还包含一个或多个紧密相关的用户业务容器
Pod 存在的意义

Pod 实现机制

容器本身之间相互隔离,通过 namespace、group

Pod 拉取策略
  1. [root@k8smaster ~]# kubectl edit deployment/javademo1
  2. .....
  3. spec:
  4.       containers:
  5.       - image: registry.cn-shanghai.aliyuncs.com/vipsoft/vipsoft:4.3
  6.         imagePullPolicy: IfNotPresent
  7.         name: vipsoft
  8.         resources: {}
  9.         terminationMessagePath: /dev/termination-log
  10.         terminationMessagePolicy: File
  11. .....
复制代码

Pod 资源限制

由Docker限制,非Pod去限制
  1. apiVersion: v1
  2. kind: Pod
  3. metadata:
  4.   name: frontend
  5. spec:
  6.   containers:
  7.   - name: db
  8.     image: mysql
  9.     env:
  10.     - name: MYSQL ROOT PASSWORD
  11.       value: "password"
  12.       resources:
  13.               # 调度需要至少这么大
  14.         requests:
  15.           memory: "64Mi"
  16.           # 1核=1000m,250m=0.25核
  17.           cpu:“250m”
  18.         # 最大不超过
  19.         limits:
  20.           memory: ”128Mi"
  21.           cpu:"500m"
复制代码
Pod和Container的资源请求和限制:
spec.containers[].resources.requests.cpu
spec.containers[].resources.requests.memory
spec.containers[].resources.limits.cpu
spec.containers[].resources.limits.memory
Pod 重启机制
  1. apiVersion: v1
  2. kind: Pod
  3. metadata:
  4.   name: dns-test
  5. spec:
  6.   containers:
  7.   - name: busybox
  8.     image: busybox:1.28.4
  9.     args:
  10.     - /bin/sh
  11.         - -C
  12.         - sleep 36000
  13.   restartPolicy:Never
复制代码
restartPolicy
Pod 健康检查
  1. apiVersion: v1
  2. kind: Pod
  3. metadata:
  4.   name: liveness-exec
  5.   labels:
  6.     test: liveness
  7. spec:
  8.   containers:                        #容器
  9.   - name: liveness                #容器名字
  10.     image: busybox                #镜像
  11.     args:                        #args
  12.     - /bin/sh
  13.     - -c
  14.     - touch /tmp/healthy; sleep 30; rm -rf /tmp/healthy; sleep 600
  15.     livenessProbe:                #存活检查
  16.       exec:
  17.         command:        #命令
  18.         - cat
  19.         - /tmp/healthy
  20.       initialDelaySeconds: 5         # 延迟探测时间
  21.       periodSeconds: 5                 # 执行探测频率
复制代码
Pod 调度策略

创建Pod流程


影响调度因素

  1. kubectl label node node1 env_role=dev
复制代码
  1. apiVersion: v1
  2. kind: Pod
  3. metadata:
  4.   name: with-node-affinityspec:
  5. spec:
  6.   affinity:
  7.     nodeAffinity:
  8.       # 硬亲和性
  9.       requiredDuringschedulingIgnoredDuringExecution:
  10.         nodeSelectorTerms :
  11.         - matchExpressions :
  12.           - key: env
  13.           roleoperator: In # NotIn Exists Gt Lt DoesNotExists
  14.           values:
  15.           - dev
  16.           - test
  17.       preferredDuringschedulingIgnoredDuringExecution:
  18.       # 软亲和性
  19.       - weiqht:1
  20.         preference:
  21.            matchExpressions :
  22.            - key: group
  23.            operator: In
  24.            values:
  25.            - otherprod
  26.   containers:
  27.   - name: webdemo
  28.     image: nginx
复制代码
污点和污点容忍

nodeSelector、nodeAffinity: Pod调度到某些节点上,Pod 属性,高度时实现
Taint 污点:节点不做普通分配调试,是节点属性
场景

演示
  1. # 查看当前节点的污点
  2. [root@k8smaster ~]# kubectl describe node k8snode3 | grep Taint
  3. # 添加污点 kubectl taint node 节点名称 key=value:污点值-
  4. [root@k8smaster ~]# kubectl taint node k8snode1 key=value:NoSchedule
  5. # 删除污点 kubectl taint node 节点名称 key=value:污点值-
  6. [root@k8smaster ~]# kubectl taint node k8snode1 env_role:NoSchedule-
复制代码
污点值

污点容忍

加上 tolerations


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4