找回密码
 立即注册
首页 业界区 安全 Kubernetes Pod控制器

Kubernetes Pod控制器

坡琨 2025-10-1 16:35:25
1、Pod控制器介绍

1.1 什么是 Pod 控制器?

Pod 控制器是一种 Kubernetes 资源,用于管理一组 Pod 的创建、运行和终止,实现以下核心功能:

  • 确保 Pod 数量与期望状态一致(自愈能力)
  • 提供 Pod 的扩缩容机制
  • 实现 Pod 的更新策略(如滚动更新)
  • 为 Pod 提供统一的管理入口
1.2 控制器的工作原理

所有控制器都遵循声明式设计调谐循环(Reconciliation Loop) 模式:

  • 用户定义资源的期望状态(如 Deployment 的副本数为 3)
  • 控制器持续监控实际状态
  • 当实际状态与期望状态不一致时,控制器采取行动消除差异
1.3 控制器与 Pod 的关系


  • 控制器通过标签选择器关联 Pod
  • 控制器创建的 Pod 会被自动添加所有者引用(Owner Reference)
  • 当控制器被删除时,其管理的 Pod 通常会被自动删除(级联删除)
2、ReplicaSet(RS)

ReplicaSet的主要作用是保证一定数量的pod正常运行,它会持续监听这些Pod的运行状态,一旦Pod发生故障,就会重启或重建。同时它还支持对pod数量的扩缩容和镜像版本的升降级。
工作原理:通过 spec.selector字段(支持 matchLabels或 matchExpressions)来识别和管理其管辖的 Pod。当 Pod 数量少于 spec.replicas时,会根据 spec.template创建新的 Pod。
ReplicaSet的资源清单文件:
  1. apiVersion: apps/v1 # 版本号
  2. kind: ReplicaSet # 类型      
  3. metadata: # 元数据
  4.   name: # rs名称
  5.   namespace: # 所属命名空间
  6.   labels: #标签
  7.     controller: rs
  8. spec: # 详情描述
  9.   replicas: 3 # 副本数量
  10.   selector: # 选择器,通过它指定该控制器管理哪些pod
  11.     matchLabels:      # Labels匹配规则
  12.       app: nginx-pod
  13.     matchExpressions: # Expressions匹配规则
  14.       - {key: app, operator: In, values: [nginx-pod]}
  15.   template: # 模板,当副本数量不足时,会根据下面的模板创建pod副本
  16.     metadata:
  17.       labels:
  18.         app: nginx-pod
  19.     spec:
  20.       containers:
  21.       - name: nginx
  22.         image: nginx:1.17.1
  23.         ports:
  24.         - containerPort: 80
复制代码
在这里面,需要新了解的配置项就是spec下面几个选项:

  • replicas:指定副本数量,其实就是当前rs创建出来的pod的数量,默认为1
  • selector:选择器,它的作用是建立pod控制器和pod之间的关联关系,采用的Label Selector机制
    在pod模板上定义label,在控制器上定义选择器,就可以表明当前控制器能管理哪些pod了
  • template:模板,就是当前控制器创建pod所使用的模板板,里面其实就是pod的定义
2.1 创建ReplicaSet

创建pc-replicaset.yaml文件,内容如下:
  1. apiVersion: apps/v1
  2. kind: ReplicaSet   
  3. metadata:
  4.   name: pc-replicaset
  5.   namespace: dev
  6. spec:
  7.   replicas: 3
  8.   selector:
  9.     matchLabels:
  10.       app: nginx-pod
  11.   template:
  12.     metadata:
  13.       labels:
  14.         app: nginx-pod
  15.     spec:
  16.       containers:
  17.       - name: nginx
  18.         image: nginx:1.17.1
复制代码
  1. # 创建rs
  2. [root@k8s-master01 ~]# kubectl create -f pc-replicaset.yaml
  3. replicaset.apps/pc-replicaset created
  4. # 查看rs
  5. # DESIRED:期望副本数量  
  6. # CURRENT:当前副本数量  
  7. # READY:已经准备好提供服务的副本数量
  8. [root@k8s-master01 ~]# kubectl get rs pc-replicaset -n dev -o wide
  9. NAME          DESIRED   CURRENT READY AGE   CONTAINERS   IMAGES             SELECTOR
  10. pc-replicaset 3         3       3     22s   nginx        nginx:1.17.1       app=nginx-pod
  11. # 查看当前控制器创建出来的pod
  12. # 这里发现控制器创建出来的pod的名称是在控制器名称后面拼接了-xxxxx随机码
  13. [root@k8s-master01 ~]# kubectl get pod -n dev
  14. NAME                          READY   STATUS    RESTARTS   AGE
  15. pc-replicaset-6vmvt   1/1     Running   0          54s
  16. pc-replicaset-fmb8f   1/1     Running   0          54s
  17. pc-replicaset-snrk2   1/1     Running   0          54s
复制代码
2.2 扩缩容
  1. # 编辑rs的副本数量,修改spec:replicas: 6即可
  2. [root@k8s-master01 ~]# kubectl edit rs pc-replicaset -n dev
  3. replicaset.apps/pc-replicaset edited
  4. # 查看pod
  5. [root@k8s-master01 ~]# kubectl get pods -n dev
  6. NAME                          READY   STATUS    RESTARTS   AGE
  7. pc-replicaset-6vmvt   1/1     Running   0          114m
  8. pc-replicaset-cftnp   1/1     Running   0          10s
  9. pc-replicaset-fjlm6   1/1     Running   0          10s
  10. pc-replicaset-fmb8f   1/1     Running   0          114m
  11. pc-replicaset-s2whj   1/1     Running   0          10s
  12. pc-replicaset-snrk2   1/1     Running   0          114m
  13. # 当然也可以直接使用命令实现
  14. # 使用scale命令实现扩缩容, 后面--replicas=n直接指定目标数量即可
  15. [root@k8s-master01 ~]# kubectl scale rs pc-replicaset --replicas=2 -n dev
  16. replicaset.apps/pc-replicaset scaled
  17. # 命令运行完毕,立即查看,发现已经有4个开始准备退出了
  18. [root@k8s-master01 ~]# kubectl get pods -n dev
  19. NAME                       READY   STATUS        RESTARTS   AGE
  20. pc-replicaset-6vmvt   0/1     Terminating   0          118m
  21. pc-replicaset-cftnp   0/1     Terminating   0          4m17s
  22. pc-replicaset-fjlm6   0/1     Terminating   0          4m17s
  23. pc-replicaset-fmb8f   1/1     Running       0          118m
  24. pc-replicaset-s2whj   0/1     Terminating   0          4m17s
  25. pc-replicaset-snrk2   1/1     Running       0          118m
  26. #稍等片刻,就只剩下2个了
  27. [root@k8s-master01 ~]# kubectl get pods -n dev
  28. NAME                       READY   STATUS    RESTARTS   AGE
  29. pc-replicaset-fmb8f   1/1     Running   0          119m
  30. pc-replicaset-snrk2   1/1     Running   0          119m
复制代码
2.3 镜像升级
  1. # 编辑rs的容器镜像 - image: nginx:1.17.2
  2. [root@k8s-master01 ~]# kubectl edit rs pc-replicaset -n dev
  3. replicaset.apps/pc-replicaset edited
  4. # 再次查看,发现镜像版本已经变更了
  5. [root@k8s-master01 ~]# kubectl get rs -n dev -o wide
  6. NAME                DESIRED  CURRENT   READY   AGE    CONTAINERS   IMAGES        ...
  7. pc-replicaset       2        2         2       140m   nginx         nginx:1.17.2  ...
  8. # 同样的道理,也可以使用命令完成这个工作
  9. # kubectl set image rs rs名称 容器=镜像版本 -n namespace
  10. [root@k8s-master01 ~]# kubectl set image rs pc-replicaset nginx=nginx:1.17.1  -n dev
  11. replicaset.apps/pc-replicaset image updated
  12. # 再次查看,发现镜像版本已经变更了
  13. [root@k8s-master01 ~]# kubectl get rs -n dev -o wide
  14. NAME                 DESIRED  CURRENT   READY   AGE    CONTAINERS   IMAGES            ...
  15. pc-replicaset        2        2         2       145m   nginx        nginx:1.17.1 ...
复制代码
2.4 删除ReplicaSet
  1. # 使用kubectl delete命令会删除此RS以及它管理的Pod
  2. # 在kubernetes删除RS前,会将RS的replicasclear调整为0,等待所有的Pod被删除后,在执行RS对象的删除
  3. [root@k8s-master01 ~]# kubectl delete rs pc-replicaset -n dev
  4. replicaset.apps "pc-replicaset" deleted
  5. [root@k8s-master01 ~]# kubectl get pod -n dev -o wide
  6. No resources found in dev namespace.
  7. # 如果希望仅仅删除RS对象(保留Pod),可以使用kubectl delete命令时添加--cascade=false选项(不推荐)。
  8. [root@k8s-master01 ~]# kubectl delete rs pc-replicaset -n dev --cascade=false
  9. replicaset.apps "pc-replicaset" deleted
  10. [root@k8s-master01 ~]# kubectl get pods -n dev
  11. NAME                  READY   STATUS    RESTARTS   AGE
  12. pc-replicaset-cl82j   1/1     Running   0          75s
  13. pc-replicaset-dslhb   1/1     Running   0          75s
  14. # 也可以使用yaml直接删除(推荐)
  15. [root@k8s-master01 ~]# kubectl delete -f pc-replicaset.yaml
  16. replicaset.apps "pc-replicaset" deleted
复制代码
注意:ReplicaSet 通常不直接使用,而是由 Deployment 进行管理
3、Deployment(Deploy)

不直接管理pod,而是通过管理ReplicaSet来简介管理Pod,即:Deployment管理ReplicaSet,ReplicaSet管理Pod。所以Deployment比ReplicaSet功能更加强大。
Deployment主要功能

  • 支持ReplicaSet的所有功能
  • 支持发布的停止、继续
  • 支持滚动升级和回滚版本
Deployment的资源清单文件:
  1. apiVersion: apps/v1 # 版本号
  2. kind: Deployment # 类型      
  3. metadata: # 元数据
  4.   name: # rs名称
  5.   namespace: # 所属命名空间
  6.   labels: #标签
  7.     controller: deploy
  8. spec: # 详情描述
  9.   replicas: 3 # 副本数量
  10.   revisionHistoryLimit: 3 # 保留历史版本
  11.   paused: false # 暂停部署,默认是false
  12.   progressDeadlineSeconds: 600 # 部署超时时间(s),默认是600
  13.   strategy: # 策略
  14.     type: RollingUpdate # 滚动更新策略
  15.     rollingUpdate: # 滚动更新
  16.       maxSurge: 30% # 最大额外可以存在的副本数,可以为百分比,也可以为整数
  17.       maxUnavailable: 30% # 最大不可用状态的 Pod 的最大值,可以为百分比,也可以为整数
  18.   selector: # 选择器,通过它指定该控制器管理哪些pod
  19.     matchLabels:      # Labels匹配规则
  20.       app: nginx-pod
  21.     matchExpressions: # Expressions匹配规则
  22.       - {key: app, operator: In, values: [nginx-pod]}
  23.   template: # 模板,当副本数量不足时,会根据下面的模板创建pod副本
  24.     metadata:
  25.       labels:
  26.         app: nginx-pod
  27.     spec:
  28.       containers:
  29.       - name: nginx
  30.         image: nginx:1.17.1
  31.         ports:
  32.         - containerPort: 80
复制代码
3.1 创建deployment

创建pc-deployment.yaml,内容如下:
  1. apiVersion: apps/v1
  2. kind: Deployment      
  3. metadata:
  4.   name: pc-deployment
  5.   namespace: dev
  6. spec:
  7.   replicas: 3
  8.   selector:
  9.     matchLabels:
  10.       app: nginx-pod
  11.   template:
  12.     metadata:
  13.       labels:
  14.         app: nginx-pod
  15.     spec:
  16.       containers:
  17.       - name: nginx
  18.         image: nginx:1.17.1
复制代码
3.2 扩缩容
  1. # 变更副本数量为5个
  2. [root@k8s-master01 ~]# kubectl scale deploy pc-deployment --replicas=5  -n dev
  3. deployment.apps/pc-deployment scaled
  4. # 查看deployment
  5. [root@k8s-master01 ~]# kubectl get deploy pc-deployment -n dev
  6. NAME            READY   UP-TO-DATE   AVAILABLE   AGE
  7. pc-deployment   5/5     5            5           2m
  8. # 查看pod
  9. [root@k8s-master01 ~]#  kubectl get pods -n dev
  10. NAME                             READY   STATUS    RESTARTS   AGE
  11. pc-deployment-6696798b78-d2c8n   1/1     Running   0          4m19s
  12. pc-deployment-6696798b78-jxmdq   1/1     Running   0          94s
  13. pc-deployment-6696798b78-mktqv   1/1     Running   0          93s
  14. pc-deployment-6696798b78-smpvp   1/1     Running   0          4m19s
  15. pc-deployment-6696798b78-wvjd8   1/1     Running   0          4m19s
  16. # 编辑deployment的副本数量,修改spec:replicas: 4即可
  17. [root@k8s-master01 ~]# kubectl edit deploy pc-deployment -n dev
  18. deployment.apps/pc-deployment edited
  19. # 查看pod
  20. [root@k8s-master01 ~]# kubectl get pods -n dev
  21. NAME                             READY   STATUS    RESTARTS   AGE
  22. pc-deployment-6696798b78-d2c8n   1/1     Running   0          5m23s
  23. pc-deployment-6696798b78-jxmdq   1/1     Running   0          2m38s
  24. pc-deployment-6696798b78-smpvp   1/1     Running   0          5m23s
  25. pc-deployment-6696798b78-wvjd8   1/1     Running   0          5m23s
复制代码
3.3 镜像更新

deployment支持两种更新策略:重建更新和滚动更新,可以通过strategy指定策略类型,支持两个属性:
strategy:指定新的Pod替换旧的Pod的策略, 支持两个属性:

  • type:指定策略类型,支持两种策略

    • Recreate:在创建出新的Pod之前会先杀掉所有已存在的Pod
    • RollingUpdate:滚动更新,就是杀死一部分,就启动一部分,在更新过程中,存在两个版本Pod

  • rollingUpdate:当type为RollingUpdate时生效,用于为RollingUpdate设置参数,支持两个属性:

    • maxUnavailable:用来指定在升级过程中不可用Pod的最大数量,默认为25%。
    • maxSurge: 用来指定在升级过程中可以超过期望的Pod的最大数量,默认为25%。

重建更新

  • 编辑pc-deployment.yaml,在spec节点下添加更新策略
  1. spec:
  2.   strategy: # 策略
  3.     type: Recreate # 重建更新
复制代码

  • 创建deploy进行验证
  1. # 变更镜像
  2. [root@k8s-master01 ~]# kubectl set image deployment pc-deployment nginx=nginx:1.17.2 -n dev
  3. deployment.apps/pc-deployment image updated
  4. # 观察升级过程
  5. [root@k8s-master01 ~]#  kubectl get pods -n dev -w
  6. NAME                             READY   STATUS    RESTARTS   AGE
  7. pc-deployment-5d89bdfbf9-65qcw   1/1     Running   0          31s
  8. pc-deployment-5d89bdfbf9-w5nzv   1/1     Running   0          31s
  9. pc-deployment-5d89bdfbf9-xpt7w   1/1     Running   0          31s
  10. pc-deployment-5d89bdfbf9-xpt7w   1/1     Terminating   0          41s
  11. pc-deployment-5d89bdfbf9-65qcw   1/1     Terminating   0          41s
  12. pc-deployment-5d89bdfbf9-w5nzv   1/1     Terminating   0          41s
  13. pc-deployment-675d469f8b-grn8z   0/1     Pending       0          0s
  14. pc-deployment-675d469f8b-hbl4v   0/1     Pending       0          0s
  15. pc-deployment-675d469f8b-67nz2   0/1     Pending       0          0s
  16. pc-deployment-675d469f8b-grn8z   0/1     ContainerCreating   0          0s
  17. pc-deployment-675d469f8b-hbl4v   0/1     ContainerCreating   0          0s
  18. pc-deployment-675d469f8b-67nz2   0/1     ContainerCreating   0          0s
  19. pc-deployment-675d469f8b-grn8z   1/1     Running             0          1s
  20. pc-deployment-675d469f8b-67nz2   1/1     Running             0          1s
  21. pc-deployment-675d469f8b-hbl4v   1/1     Running             0          2s
复制代码
滚动更新

  • 编辑pc-deployment.yaml,在spec节点下添加更新策略
  1. spec:
  2.   strategy: # 策略
  3.     type: RollingUpdate # 滚动更新策略
  4.     rollingUpdate:
  5.       违规词汇: 25%
  6.       maxUnavailable: 25%
复制代码

  • 创建deploy进行验证
  1. # 变更镜像
  2. [root@k8s-master01 ~]# kubectl set image deployment pc-deployment nginx=nginx:1.17.3 -n dev
  3. deployment.apps/pc-deployment image updated
  4. # 观察升级过程
  5. [root@k8s-master01 ~]# kubectl get pods -n dev -w
  6. NAME                           READY   STATUS    RESTARTS   AGE
  7. pc-deployment-c848d767-8rbzt   1/1     Running   0          31m
  8. pc-deployment-c848d767-h4p68   1/1     Running   0          31m
  9. pc-deployment-c848d767-hlmz4   1/1     Running   0          31m
  10. pc-deployment-c848d767-rrqcn   1/1     Running   0          31m
  11. pc-deployment-966bf7f44-226rx   0/1     Pending             0          0s
  12. pc-deployment-966bf7f44-226rx   0/1     ContainerCreating   0          0s
  13. pc-deployment-966bf7f44-226rx   1/1     Running             0          1s
  14. pc-deployment-c848d767-h4p68    0/1     Terminating         0          34m
  15. pc-deployment-966bf7f44-cnd44   0/1     Pending             0          0s
  16. pc-deployment-966bf7f44-cnd44   0/1     ContainerCreating   0          0s
  17. pc-deployment-966bf7f44-cnd44   1/1     Running             0          2s
  18. pc-deployment-c848d767-hlmz4    0/1     Terminating         0          34m
  19. pc-deployment-966bf7f44-px48p   0/1     Pending             0          0s
  20. pc-deployment-966bf7f44-px48p   0/1     ContainerCreating   0          0s
  21. pc-deployment-966bf7f44-px48p   1/1     Running             0          0s
  22. pc-deployment-c848d767-8rbzt    0/1     Terminating         0          34m
  23. pc-deployment-966bf7f44-dkmqp   0/1     Pending             0          0s
  24. pc-deployment-966bf7f44-dkmqp   0/1     ContainerCreating   0          0s
  25. pc-deployment-966bf7f44-dkmqp   1/1     Running             0          2s
  26. pc-deployment-c848d767-rrqcn    0/1     Terminating         0          34m
  27. # 至此,新版本的pod创建完毕,就版本的pod销毁完毕
  28. # 中间过程是滚动进行的,也就是边销毁边创建
复制代码
镜像更新中rs的变化
  1. # 查看rs,发现原来的rs的依旧存在,只是pod数量变为了0,而后又新产生了一个rs,pod数量为4
  2. # 其实这就是deployment能够进行版本回退的奥妙所在,后面会详细解释
  3. [root@k8s-master01 ~]# kubectl get rs -n dev
  4. NAME                       DESIRED   CURRENT   READY   AGE
  5. pc-deployment-6696798b78   0         0         0       7m37s
  6. pc-deployment-6696798b11   0         0         0       5m37s
  7. pc-deployment-c848d76789   4         4         4       72s
复制代码
3.4 版本回退

deployment支持版本升级过程中的暂停、继续功能以及版本回退等诸多功能,下面具体来看.
kubectl rollout: 版本升级相关功能,支持下面的选项:

  • status        显示当前升级状态
  • history   显示 升级历史记录
  • pause    暂停版本升级过程
  • resume   继续已经暂停的版本升级过程
  • restart    重启版本升级过程
  • undo 回滚到上一级版本(可以使用--to-revision回滚到指定版本)
  1. # 查看当前升级版本的状态
  2. [root@k8s-master01 ~]# kubectl rollout status deploy pc-deployment -n dev
  3. deployment "pc-deployment" successfully rolled out
  4. # 查看升级历史记录
  5. [root@k8s-master01 ~]# kubectl rollout history deploy pc-deployment -n dev
  6. deployment.apps/pc-deployment
  7. REVISION  CHANGE-CAUSE
  8. 1         kubectl create --filename=pc-deployment.yaml --record=true
  9. 2         kubectl create --filename=pc-deployment.yaml --record=true
  10. 3         kubectl create --filename=pc-deployment.yaml --record=true
  11. # 可以发现有三次版本记录,说明完成过两次升级
  12. # 版本回滚
  13. # 这里直接使用--to-revision=1回滚到了1版本, 如果省略这个选项,就是回退到上个版本,就是2版本
  14. [root@k8s-master01 ~]# kubectl rollout undo deployment pc-deployment --to-revision=1 -n dev
  15. deployment.apps/pc-deployment rolled back
  16. # 查看发现,通过nginx镜像版本可以发现到了第一版
  17. [root@k8s-master01 ~]# kubectl get deploy -n dev -o wide
  18. NAME            READY   UP-TO-DATE   AVAILABLE   AGE   CONTAINERS   IMAGES         
  19. pc-deployment   4/4     4            4           74m   nginx        nginx:1.17.1   
  20. # 查看rs,发现第一个rs中有4个pod运行,后面两个版本的rs中pod为运行
  21. # 其实deployment之所以可是实现版本的回滚,就是通过记录下历史rs来实现的,
  22. # 一旦想回滚到哪个版本,只需要将当前版本pod数量降为0,然后将回滚版本的pod提升为目标数量就可以了
  23. [root@k8s-master01 ~]# kubectl get rs -n dev
  24. NAME                       DESIRED   CURRENT   READY   AGE
  25. pc-deployment-6696798b78   4         4         4       78m
  26. pc-deployment-966bf7f44    0         0         0       37m
  27. pc-deployment-c848d767     0         0         0       71m
复制代码
3.5 金丝雀发布

Deployment控制器支持控制更新过程中的控制,如“暂停(pause)”或“继续(resume)”更新操作。
比如有一批新的Pod资源创建完成后立即暂停更新过程,此时,仅存在一部分新版本的应用,主体部分还是旧的版本。然后,再筛选一小部分的用户请求路由到新版本的Pod应用,继续观察能否稳定地按期望的方式运行。确定没问题之后再继续完成余下的Pod资源滚动更新,否则立即回滚更新操作。这就是所谓的金丝雀发布。
  1. # 更新deployment的版本,并配置暂停deployment
  2. [root@k8s-master01 ~]#  kubectl set image deploy pc-deployment nginx=nginx:1.17.4 -n dev && kubectl rollout pause deployment pc-deployment  -n dev
  3. deployment.apps/pc-deployment image updated
  4. deployment.apps/pc-deployment paused
  5. #观察更新状态
  6. [root@k8s-master01 ~]# kubectl rollout status deploy pc-deployment -n dev 
  7. Waiting for deployment "pc-deployment" rollout to finish: 2 out of 4 new replicas have been updated...
  8. # 监控更新的过程,可以看到已经新增了一个资源,但是并未按照预期的状态去删除一个旧的资源,就是因为使用了pause暂停命令
  9. [root@k8s-master01 ~]# kubectl get rs -n dev -o wide
  10. NAME                       DESIRED   CURRENT   READY   AGE     CONTAINERS   IMAGES         
  11. pc-deployment-5d89bdfbf9   3         3         3       19m     nginx        nginx:1.17.1   
  12. pc-deployment-675d469f8b   0         0         0       14m     nginx        nginx:1.17.2   
  13. pc-deployment-6c9f56fcfb   2         2         2       3m16s   nginx        nginx:1.17.4   
  14. [root@k8s-master01 ~]# kubectl get pods -n dev
  15. NAME                             READY   STATUS    RESTARTS   AGE
  16. pc-deployment-5d89bdfbf9-rj8sq   1/1     Running   0          7m33s
  17. pc-deployment-5d89bdfbf9-ttwgg   1/1     Running   0          7m35s
  18. pc-deployment-5d89bdfbf9-v4wvc   1/1     Running   0          7m34s
  19. pc-deployment-6c9f56fcfb-996rt   1/1     Running   0          3m31s
  20. pc-deployment-6c9f56fcfb-j2gtj   1/1     Running   0          3m31s
  21. # 确保更新的pod没问题了,继续更新
  22. [root@k8s-master01 ~]# kubectl rollout resume deploy pc-deployment -n dev
  23. deployment.apps/pc-deployment resumed
  24. # 查看最后的更新情况
  25. [root@k8s-master01 ~]# kubectl get rs -n dev -o wide
  26. NAME                       DESIRED   CURRENT   READY   AGE     CONTAINERS   IMAGES         
  27. pc-deployment-5d89bdfbf9   0         0         0       21m     nginx        nginx:1.17.1   
  28. pc-deployment-675d469f8b   0         0         0       16m     nginx        nginx:1.17.2   
  29. pc-deployment-6c9f56fcfb   4         4         4       5m11s   nginx        nginx:1.17.4   
  30. [root@k8s-master01 ~]# kubectl get pods -n dev
  31. NAME                             READY   STATUS    RESTARTS   AGE
  32. pc-deployment-6c9f56fcfb-7bfwh   1/1     Running   0          37s
  33. pc-deployment-6c9f56fcfb-996rt   1/1     Running   0          5m27s
  34. pc-deployment-6c9f56fcfb-j2gtj   1/1     Running   0          5m27s
  35. pc-deployment-6c9f56fcfb-rf84v   1/1     Running   0          37s
复制代码
3.6 删除Deployment
  1. # 删除deployment,其下的rs和pod也将被删除
  2. [root@k8s-master01 ~]# kubectl delete -f pc-deployment.yaml
  3. deployment.apps "pc-deployment" deleted
复制代码
4、DaemonSet(DS)

DaemonSet关心的是节点本身,确保每个符合条件的节点上都运行一个指定的 Pod。
核心思想:一个节点,一个 Pod。
主要作用场景:

  • 集群存储守护进程:如 glusterd、ceph,需要在每个节点上运行以提供持久化存储。
  • 日志收集守护进程:如 fluentd、filebeat,需要在每个节点上运行以收集该节点上所有容器的日志。
  • 节点监控守护进程:如 Prometheus Node Exporter、collectd,需要在每个节点上运行以收集该节点的监控指标。
  • 网络插件:如 Calico、Flannel的 CNI 组件,需要在每个节点上运行以提供容器网络。
特点:

  • 每当向集群中添加一个节点时,指定的 Pod 副本也将添加到该节点上
  • 当节点从集群中移除时,Pod 也就被垃圾回收了
资源清单
  1. apiVersion: apps/v1 # 版本号
  2. kind: DaemonSet # 类型      
  3. metadata: # 元数据
  4.   name: # rs名称
  5.   namespace: # 所属命名空间
  6.   labels: #标签
  7.     controller: daemonset
  8. spec: # 详情描述
  9.   revisionHistoryLimit: 3 # 保留历史版本
  10.   updateStrategy: # 更新策略
  11.     type: RollingUpdate # 滚动更新策略
  12.     rollingUpdate: # 滚动更新
  13.       maxUnavailable: 1 # 最大不可用状态的 Pod 的最大值,可以为百分比,也可以为整数
  14.   selector: # 选择器,通过它指定该控制器管理哪些pod
  15.     matchLabels:      # Labels匹配规则
  16.       app: nginx-pod
  17.     matchExpressions: # Expressions匹配规则
  18.       - {key: app, operator: In, values: [nginx-pod]}
  19.   template: # 模板,当副本数量不足时,会根据下面的模板创建pod副本
  20.     metadata:
  21.       labels:
  22.         app: nginx-pod
  23.     spec:
  24.       containers:
  25.       - name: nginx
  26.         image: nginx:1.17.1
  27.         ports:
  28.         - containerPort: 80
复制代码
创建pc-daemonset.yaml,内容如下:
  1. apiVersion: apps/v1
  2. kind: DaemonSet      
  3. metadata:
  4.   name: pc-daemonset
  5.   namespace: dev
  6. spec:
  7.   selector:
  8.     matchLabels:
  9.       app: nginx-pod
  10.   template:
  11.     metadata:
  12.       labels:
  13.         app: nginx-pod
  14.     spec:
  15.       containers:
  16.       - name: nginx
  17.         image: nginx:1.17.1
复制代码
  1. # 创建daemonset
  2. [root@k8s-master01 ~]# kubectl create -f  pc-daemonset.yaml
  3. daemonset.apps/pc-daemonset created
  4. # 查看daemonset
  5. [root@k8s-master01 ~]#  kubectl get ds -n dev -o wide
  6. NAME        DESIRED  CURRENT  READY  UP-TO-DATE  AVAILABLE   AGE   CONTAINERS   IMAGES         
  7. pc-daemonset   2        2        2      2           2        24s   nginx        nginx:1.17.1   
  8. # 查看pod,发现在每个Node上都运行一个pod
  9. [root@k8s-master01 ~]#  kubectl get pods -n dev -o wide
  10. NAME                 READY   STATUS    RESTARTS   AGE   IP            NODE   
  11. pc-daemonset-9bck8   1/1     Running   0          37s   10.244.1.43   node1     
  12. pc-daemonset-k224w   1/1     Running   0          37s   10.244.2.74   node2      
  13. # 删除daemonset
  14. [root@k8s-master01 ~]# kubectl delete -f pc-daemonset.yaml
  15. daemonset.apps "pc-daemonset" deleted
复制代码
注意:Kubernetes 主节点(Master)默认带有污点(Taint)node-role.kubernetes.io/control-plane:NoSchedule,以防止普通 Pod 调度到主节点。如果你希望 DaemonSet 的 Pod 也能在主节点上运行(例如,为了收集主组件的日志),就必须配置相应的容忍度。
  1.   template: # Pod 模板,定义要在每个节点上运行的 Pod
  2.     metadata:
  3.       labels:
  4.         name: fluentd-elasticsearch
  5.     spec:
  6.       tolerations: # 容忍度,非常重要!允许 Pod 调度到带有污点的节点上
  7.       - key: node-role.kubernetes.io/control-plane
  8.         operator: Exists
  9.         effect: NoSchedule
  10.       - key: node-role.kubernetes.io/master
  11.         operator: Exists
  12.         effect: NoSchedule
复制代码
5、Job

主要用于负责批量处理(一次要处理指定数量任务)短暂的一次性(每个任务仅运行一次就结束)任务。Job特点如下:

  • 当Job创建的pod执行成功结束时,Job将记录成功结束的pod数量
  • 当成功结束的pod达到指定的数量时,Job将完成执行
资源清单
  1. apiVersion: batch/v1 # 版本号
  2. kind: Job # 类型      
  3. metadata: # 元数据
  4.   name: # rs名称
  5.   namespace: # 所属命名空间
  6.   labels: #标签
  7.     controller: job
  8. spec: # 详情描述
  9.   completions: 1 # 指定job需要成功运行Pods的次数。默认值: 1
  10.   parallelism: 1 # 指定job在任一时刻应该并发运行Pods的数量。默认值: 1
  11.   activeDeadlineSeconds: 30 # 指定job可运行的时间期限,超过时间还未结束,系统将会尝试进行终止。
  12.   backoffLimit: 6 # 指定job失败后进行重试的次数。默认是6
  13.   manualSelector: true # 是否可以使用selector选择器选择pod,默认是false
  14.   selector: # 选择器,通过它指定该控制器管理哪些pod
  15.     matchLabels:      # Labels匹配规则
  16.       app: counter-pod
  17.     matchExpressions: # Expressions匹配规则
  18.       - {key: app, operator: In, values: [counter-pod]}
  19.   template: # 模板,当副本数量不足时,会根据下面的模板创建pod副本
  20.     metadata:
  21.       labels:
  22.         app: counter-pod
  23.     spec:
  24.       restartPolicy: Never # 重启策略只能设置为Never或者OnFailure
  25.       containers:
  26.       - name: counter
  27.         image: busybox:1.30
  28.         command: ["bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1; do echo $i;sleep 2;done"]
复制代码
重启策略设置的说明

  • 如果指定为OnFailure,则job会在pod出现故障时重启容器,而不是创建pod,failed次数不变
  • 如果指定为Never,则job会在pod出现故障时创建新的pod,并且故障pod不会消失,也不会重启,failed次数加1
  • 如果指定为Always的话,就意味着一直重启,意味着job任务会重复去执行了,当然不对,所以不能设置为Always
创建pc-job.yaml,内容如下:
  1. apiVersion: batch/v1
  2. kind: Job      
  3. metadata:
  4.   name: pc-job
  5.   namespace: dev
  6. spec:
  7.   manualSelector: true
  8.   selector:
  9.     matchLabels:
  10.       app: counter-pod
  11.   template:
  12.     metadata:
  13.       labels:
  14.         app: counter-pod
  15.     spec:
  16.       restartPolicy: Never
  17.       containers:
  18.       - name: counter
  19.         image: busybox:1.30
  20.         command: ["bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1; do echo $i;sleep 3;done"]
复制代码
  1. # 创建job
  2. [root@k8s-master01 ~]# kubectl create -f pc-job.yaml
  3. job.batch/pc-job created
  4. # 查看job
  5. [root@k8s-master01 ~]# kubectl get job -n dev -o wide  -w
  6. NAME     COMPLETIONS   DURATION   AGE   CONTAINERS   IMAGES         SELECTOR
  7. pc-job   0/1           21s        21s   counter      busybox:1.30   app=counter-pod
  8. pc-job   1/1           31s        79s   counter      busybox:1.30   app=counter-pod
  9. # 通过观察pod状态可以看到,pod在运行完毕任务后,就会变成Completed状态
  10. [root@k8s-master01 ~]# kubectl get pods -n dev -w
  11. NAME           READY   STATUS     RESTARTS      AGE
  12. pc-job-rxg96   1/1     Running     0            29s
  13. pc-job-rxg96   0/1     Completed   0            33s
  14. # 接下来,调整下pod运行的总数量和并行数量 即:在spec下设置下面两个选项
  15. #  completions: 6 # 指定job需要成功运行Pods的次数为6
  16. #  parallelism: 3 # 指定job并发运行Pods的数量为3
  17. #  然后重新运行job,观察效果,此时会发现,job会每次运行3个pod,总共执行了6个pod
  18. [root@k8s-master01 ~]# kubectl get pods -n dev -w
  19. NAME           READY   STATUS    RESTARTS   AGE
  20. pc-job-684ft   1/1     Running   0          5s
  21. pc-job-jhj49   1/1     Running   0          5s
  22. pc-job-pfcvh   1/1     Running   0          5s
  23. pc-job-684ft   0/1     Completed   0          11s
  24. pc-job-v7rhr   0/1     Pending     0          0s
  25. pc-job-v7rhr   0/1     Pending     0          0s
  26. pc-job-v7rhr   0/1     ContainerCreating   0          0s
  27. pc-job-jhj49   0/1     Completed           0          11s
  28. pc-job-fhwf7   0/1     Pending             0          0s
  29. pc-job-fhwf7   0/1     Pending             0          0s
  30. pc-job-pfcvh   0/1     Completed           0          11s
  31. pc-job-5vg2j   0/1     Pending             0          0s
  32. pc-job-fhwf7   0/1     ContainerCreating   0          0s
  33. pc-job-5vg2j   0/1     Pending             0          0s
  34. pc-job-5vg2j   0/1     ContainerCreating   0          0s
  35. pc-job-fhwf7   1/1     Running             0          2s
  36. pc-job-v7rhr   1/1     Running             0          2s
  37. pc-job-5vg2j   1/1     Running             0          3s
  38. pc-job-fhwf7   0/1     Completed           0          12s
  39. pc-job-v7rhr   0/1     Completed           0          12s
  40. pc-job-5vg2j   0/1     Completed           0          12s
  41. # 删除job
  42. [root@k8s-master01 ~]# kubectl delete -f pc-job.yaml
  43. job.batch "pc-job" deleted
复制代码
6、CronJob(CJ)

CronJob控制器以Job控制器资源为其管控对象,并借助它管理pod资源对象,Job控制器定义的作业任务在其控制器资源创建之后便会立即执行,但CronJob可以以类似于Linux操作系统的周期性任务作业计划的方式控制其运行时间点重复运行的方式。也就是说,CronJob可以在特定的时间点(反复的)去运行job任务
资源清单
  1. apiVersion: batch/v1beta1 # 版本号
  2. kind: CronJob # 类型      
  3. metadata: # 元数据
  4.   name: # rs名称
  5.   namespace: # 所属命名空间
  6.   labels: #标签
  7.     controller: cronjob
  8. spec: # 详情描述
  9.   schedule: # cron格式的作业调度运行时间点,用于控制任务在什么时间执行
  10.   concurrencyPolicy: # 并发执行策略,用于定义前一次作业运行尚未完成时是否以及如何运行后一次的作业
  11.   failedJobHistoryLimit: # 为失败的任务执行保留的历史记录数,默认为1
  12.   successfulJobHistoryLimit: # 为成功的任务执行保留的历史记录数,默认为3
  13.   startingDeadlineSeconds: # 启动作业错误的超时时长
  14.   jobTemplate: # job控制器模板,用于为cronjob控制器生成job对象;下面其实就是job的定义
  15.     metadata:
  16.     spec:
  17.       completions: 1
  18.       parallelism: 1
  19.       activeDeadlineSeconds: 30
  20.       backoffLimit: 6
  21.       manualSelector: true
  22.       selector:
  23.         matchLabels:
  24.           app: counter-pod
  25.         matchExpressions: 规则
  26.           - {key: app, operator: In, values: [counter-pod]}
  27.       template:
  28.         metadata:
  29.           labels:
  30.             app: counter-pod
  31.         spec:
  32.           restartPolicy: Never
  33.           containers:
  34.           - name: counter
  35.             image: busybox:1.30
  36.             command: ["bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1; do echo $i;sleep 20;done"]
复制代码
需要重点解释的几个选项:
schedule: cron表达式,用于指定任务的执行时间
/1    *      *    *     *
   
分钟 值从 0 到 59.
小时 值从 0 到 23.
日 值从 1 到 31.
月 值从 1 到 12.
星期 值从 0 到 6, 0 代表星期日
多个时间可以用逗号隔开; 范围可以用连字符给出;
可以作为通配符; /表示每...
concurrencyPolicy:
Allow:   允许Jobs并发运行(默认)
Forbid:  禁止并发运行,如果上一次运行尚未完成,则跳过下一次运行
创建pc-cronjob.yaml,内容如下:
  1. apiVersion: batch/v1beta1
  2. kind: CronJob
  3. metadata:
  4.   name: pc-cronjob
  5.   namespace: dev
  6.   labels:
  7.     controller: cronjob
  8. spec:
  9.   schedule: "*/1 * * * *"
  10.   jobTemplate:
  11.     metadata:
  12.     spec:
  13.       template:
  14.         spec:
  15.           restartPolicy: Never
  16.           containers:
  17.           - name: counter
  18.             image: busybox:1.30
  19.             command: ["bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1; do echo $i;sleep 3;done"]
复制代码
  1. # 创建cronjob
  2. [root@k8s-master01 ~]# kubectl create -f pc-cronjob.yaml
  3. cronjob.batch/pc-cronjob created
  4. # 查看cronjob
  5. [root@k8s-master01 ~]# kubectl get cronjobs -n dev
  6. NAME         SCHEDULE      SUSPEND   ACTIVE   LAST SCHEDULE   AGE
  7. pc-cronjob   */1 * * * *   False     0        <none>          6s
  8. # 查看job
  9. [root@k8s-master01 ~]# kubectl get jobs -n dev
  10. NAME                    COMPLETIONS   DURATION   AGE
  11. pc-cronjob-1592587800   1/1           28s        3m26s
  12. pc-cronjob-1592587860   1/1           28s        2m26s
  13. pc-cronjob-1592587920   1/1           28s        86s
  14. # 查看pod
  15. [root@k8s-master01 ~]# kubectl get pods -n dev
  16. pc-cronjob-1592587800-x4tsm   0/1     Completed   0          2m24s
  17. pc-cronjob-1592587860-r5gv4   0/1     Completed   0          84s
  18. pc-cronjob-1592587920-9dxxq   1/1     Running     0          24s
  19. # 删除cronjob
  20. [root@k8s-master01 ~]# kubectl  delete -f pc-cronjob.yaml
  21. cronjob.batch "pc-cronjob" deleted
复制代码
7、StatefulSet

7.1 核心特性

7.1.1 稳定的网络标识 (Stable Network Identity)

StatefulSet 中的每个 Pod 都派生自一个稳定的身份标识。当你创建一个名为 web、副本数为 3 的 StatefulSet 时,Kubernetes 会创建以下 Pod:

  • web-0
  • web-1
  • web-2
这些 Pod 名称是顺序的、稳定的。即使 web-1  Pod 被重新调度,它也会保持相同的名称。这与 Deployment 创建的随机名称 Pod(如 web-7df9c6f9bf-n8xcj)形成鲜明对比。
更重要的是,每个 Pod 会获得一个基于该名称的 DNS 主机名。这依赖于一个无头 Service (Headless Service)
示例
你创建了一个名为 mysql 的无头 Service 和一个名为 mysql 的 StatefulSet。每个 Pod 将获得一个唯一的 DNS 条目,规则为...svc.cluster.local:

  • mysql-0.mysql.default.svc.cluster.local
  • mysql-1.mysql.default.svc.cluster.local
  • mysql-2.mysql.default.svc.cluster.local
集群内的其他应用可以通过这些固定的、可预测的 DNS 名称直接访问特定的 Pod 实例。
7.1.2 稳定的持久化存储 (Stable Persistent Storage)

这是 StatefulSet 最强大的特性之一。它通过 volumeClaimTemplates 为每个 Pod 动态地、独立地创建 PersistentVolumeClaim (PVC)。
工作原理

  • 在 StatefulSet 的 YAML 中定义一个 volumeClaimTemplates。
  • 当创建 Pod web-0 时,StatefulSet 控制器会自动根据模板创建一个名为 [volumeClaimTemplateName]-[podName] 的 PVC,例如 www-web-0。
  • 这个 PVC 会被绑定到一个 PV,然后挂载到 Pod web-0 中。
  • 如果 Pod web-0 被删除并重新调度,新的 web-0 Pod 将会挂载完全相同的、之前为它创建的 PVC/PV,从而访问到原来的数据。
这意味着存储与 Pod 的生命周期解耦,而是与 Pod 的标识符(序号)绑定。数据得以持久化。
7.1.3 有序的、优雅的部署和扩缩容

StatefulSet 严格保证 Pod 的操作顺序:

  • 部署/扩容(Scale Up): 从序号 0 到 N-1,顺序地创建和启动 Pod。必须前一个 Pod(Ready 状态)成功运行后,才会创建下一个。
  • 终止/缩容(Scale Down): 从序号 N-1 到 0,逆序地删除 Pod。
  • 滚动更新(Update): 同样遵循逆序更新策略。
这种顺序性对于有状态应用至关重要。例如,在数据库集群中,你需要先确保主节点(mysql-0)完全启动并正常运行时,才能启动从节点(mysql-1, mysql-2)来与之同步。
7.2 StatefulSet 的组成

7.2.1 StatefulSet 控制器

StatefulSet 定义了 Pod 模板、副本数以及至关重要的 volumeClaimTemplates
  1. apiVersion: apps/v1
  2. kind: StatefulSet
  3. metadata:
  4.   name: web
  5. spec:
  6.   serviceName: "nginx"  # 关联的 Headless Service 名称
  7.   replicas: 3           # 期望的 Pod 数量
  8.   selector:
  9.     matchLabels:
  10.       app: nginx
  11.   template:
  12.     metadata:
  13.       labels:
  14.         app: nginx
  15.     spec:
  16.       containers:
  17.       - name: nginx
  18.         image: nginx:1.21
  19.         ports:
  20.         - containerPort: 80
  21.           name: web
  22.         volumeMounts:
  23.         - name: www          # 与 volumeClaimTemplates 中的名称对应
  24.           mountPath: /usr/share/nginx/html
  25.   volumeClaimTemplates:     # 存储卷声明模板
  26.   - metadata:
  27.       name: www
  28.     spec:
  29.       accessModes: [ "ReadWriteOnce" ]
  30.       storageClassName: "standard"  # 存储类名称
  31.       resources:
  32.         requests:
  33.           storage: 1Gi
复制代码
7.2.2 Headless Service

一个普通的 Service 提供了一个稳定的虚拟 IP 和负载均衡。而一个无头 Service 通过将 clusterIP 设置为 None 来禁用这种负载均衡。它的唯一目的是为 Pod 提供 DNS 记录,从而允许直接访问每个独立的 Pod。
  1. apiVersion: v1
  2. kind: Service
  3. metadata:
  4.   name: nginx
  5.   labels:
  6.     app: nginx
  7. spec:
  8.   ports:
  9.   - port: 80
  10.     name: web
  11.   selector:
  12.     app: nginx
  13.   clusterIP: None  # 这是一个 Headless Service
复制代码
7.3 完整示例

部署一个“主从”MySQL 集群,以下是一个简化版的 StatefulSet 示例,用于展示其核心结构。
  1. ---
  2. # 1. 首先,创建无头 Service
  3. apiVersion: v1
  4. kind: Service
  5. metadata:
  6.   name: mysql
  7.   labels:
  8.     app: mysql
  9. spec:
  10.   ports:
  11.   - name: mysql
  12.     port: 3306
  13.   clusterIP: None # 关键:定义为无头服务
  14.   selector:
  15.     app: mysql # 选择 StatefulSet 管理的 Pod
  16. ---
  17. # 2. 然后,创建 StatefulSet
  18. apiVersion: apps/v1
  19. kind: StatefulSet
  20. metadata:
  21.   name: mysql
  22. spec:
  23.   serviceName: "mysql" # 关键:必须指向上面无头 Service 的名称
  24.   replicas: 3 # 三个实例:一个主,两个从
  25.   selector:
  26.     matchLabels:
  27.       app: mysql # 必须匹配 template.metadata.labels
  28.   template:
  29.     metadata:
  30.       labels:
  31.         app: mysql # 必须匹配上面的 selector 和 Service 的 selector
  32.     spec:
  33.       #  Init Container 可用于处理复杂的初始化,如从节点克隆主节点数据
  34.       initContainers:
  35.       - name: init-mysql
  36.         image: mysql:5.7
  37.         command: ['bash', '-c', '...'] # 根据 Pod 序号(HOSTNAME)生成服务器配置
  38.         volumeMounts:
  39.         - name: conf
  40.           mountPath: /etc/mysql/conf.d
  41.       containers:
  42.       - name: mysql
  43.         image: mysql:5.7
  44.         env:
  45.         - name: MYSQL_ROOT_PASSWORD
  46.           valueFrom:
  47.             secretKeyRef:
  48.               name: mysql-secret
  49.               key: password
  50.         ports:
  51.         - containerPort: 3306
  52.           name: mysql
  53.         volumeMounts:
  54.         - name: data
  55.           mountPath: /var/lib/mysql # MySQL 数据目录
  56.         - name: conf
  57.           mountPath: /etc/mysql/conf.d
  58.         - name: config-map
  59.           mountPath: /etc/mysql/init.sql
  60.           subPath: init.sql
  61.       volumes:
  62.       - name: conf
  63.         emptyDir: {}
  64.       - name: config-map
  65.         configMap:
  66.           name: mysql-config
  67.   # 3. 最重要的部分:持久化存储卷申请模板
  68.   volumeClaimTemplates:
  69.   - metadata:
  70.       name: data # PVC 的名称模板将是 data-mysql-0, data-mysql-1, ...
  71.     spec:
  72.       accessModes: [ "ReadWriteOnce" ] # 每个卷只能被一个节点挂载
  73.       storageClassName: "ssd" # 指定存储类,由集群管理员提供
  74.       resources:
  75.         requests:
  76.           storage: 10Gi
复制代码
应用上述配置
  1. kubectl apply -f mysql-statefulset.yaml
复制代码
观察部署过程
  1. kubectl get pods -l app=mysql -w
复制代码
你会看到 Pod 按顺序创建:mysql-0 -> mysql-1 -> mysql-2。
查看自动创建的 PVC
  1. kubectl get pvc
复制代码
输出会显示三个 PVC:
  1. NAME           STATUS   VOLUME   CAPACITY   ACCESS MODES
  2. data-mysql-0   Bound    pvc-abc   10Gi       RWO
  3. data-mysql-1   Bound    pvc-def   10Gi       RWO
  4. data-mysql-2   Bound    pvc-ghi   10Gi       RWO
复制代码
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

相关推荐

您需要登录后才可以回帖 登录 | 立即注册