深入掌握K8S Pod - Yabea - 博客园
k8s系列文章:
Pod是k8s中最小的调度单元,包含了一个“根容器”和其它用户业务容器。
如果你使用过k8s的话,当然会了解pod的基本使用,但是为了更好的应用,你需要深入了解pod的配置、调度、升级和扩缩容等。本文将会更进一步的介绍pod。
基础
为什么需要pod?
pod包含一个或多个相对紧密耦合的容器,处于同一个pod中的容器共享同样的存储空间、IP地址和Port端口。
为什么k8s要设计出Pod这个概念并作为最小调度单元呢?
直接部署一个容器可能会更加容易,每个容器都有不同的配置和功能,k8s需要对这些容器进行管理(重启、检测等),那么为了避免在容器这个实体上增加更多的属性,就产生了pod这个概念。
并且,Pod中的多个业务容器共享Pause容器的IP,共享Pause容器挂接的Volume,这样既简化了密切关联的业务容器的通信问题,也很好的解决了它们之间的文件共享问题。
容器配置
pod可以由一个或多个容器组合而成,也就是说, 在创建pod时可以给一个pod配置多个container,一般情况下,建议将应用紧耦合的容器打包为一个pod,原则上一个容器一个进程。
共享Volume
同一个pod中的多个容器能够共享pod级别的存储卷Volume,多个容器各自挂载,将一个volume挂载为容器内部需要的目录。
Pod通信
k8s为每个pod都分配了唯一的IP地址,称之为pod IP,一个pod中的多个容器共享Pod IP地址,属于同一个pod的多个应用之间相互访问时仅通过localhost就可以通信。
k8s底层支持集群内任意两个pod之间的TCP/IP直接通信,因此,在k8s中,一个pod中的容器可以与另外主机上的pod里的容器直接通信。
容器限制
需要注意的是:pod中长时间运行的容器需保证其主程序一直在前台运行。比如创建docker镜像时启动命令是通过nohup在后台运行的:
nohup ./start.sh &
那么kubelet创建了包含这个容器的pod之后运行完这个命令,则会根据配置发生两种情况:
- 如果pod未配置RC,则认为该pod执行结束,将立刻销毁该pod。
- 如果pod配置了RC,该pod终止以后,k8s会根据RC的数量生成新的pod,会陷入一个 销毁-> 创建的无限循环中。
如果无法前台执行,只能后端运行的话,该怎么办呢?
可以借助supervisor。
配置管理
应用部署的一个最佳实践就是将配置信息和程序进行分离,在k8s中可以使用configmap实现。
详细使用可参考: K8S configmap使用
生命周期和重启策略
在创建pod出错了,通常会看到pending状态,而你使用 kubectl get pods 时,也偶尔会看到重启这个字段,那么pod的生命周期和重启策略具体是怎么实现的呢?
一个pod的状态信息是保存在PodStatus对象中的,phase字段用来描述pod在其生命周期中的不同状态,包括:
状态 | 说明 |
---|---|
Pending | 挂起。有一个或多个容器未被创建,可以通过kubectl get po ** 查看原因。 |
running | 运行中。所有容器已被创建,至少有一个是运行状态,可通过kubectl logs -f ** 查看日志 |
succeeded | 成功。所有容器执行成功并终止,不会再次重启。 |
failed | 失败。所有容器都已终止,至少有一个容器以失败的方式终止。 |
unknown | 未知。一般是因为通信问题无法获取pod的状态 |
Pod通常使用探针来检测容器内的应用是否正常,有两类探针:
- LivenessProbe探针:判断容器是否存活(Running状态)
- ReadinessProbe探针:判断容器是否可用(Ready状态)
在Pod发生故障时对Pod进行重启(仅在Pod所处的Node上操作),具体的方式包括:
操作方式 | 说明 |
---|---|
Always | 容器失效时,自动重启 |
OnFailure | 容器以不为0的状态码终止,自动重启 |
Never | 无论何种状态,都不会重启 |
其中,Pod的重启策略与控制方式息息相关,不同的控制器对pod的重启策略要求不一样:
- RC和DaemonSet:必须设置为Always,需要保证容器持续运行
- Job:onfailure或者Never,保证容器执行完成后不再重启。
Pod调度
在使用K8S时,我们很少直接创建Pod,大多数情况都是会通过RC、Deployment、DaemonSet、Job等控制器来实现对一组Pod副本的创建、调度和全生命周期的自动控制。
官方建议:不应该使用底层的ReplicaSet来控制Pod副本,推荐直接使用管理ReplicaSet的Deployment对象来控制Pod副本。
全自动调度
Deployment或RC的主要功能之一就是自动部署一个容器应用的多份副本,持续监控副本的数量,保证集群内始终维持指定的副本数量。创建的pod完全由系统自动完成调度,pod各自运行在哪个节点上,完全由master scheduler计算出一个最佳的目标节点进行分配,用户无法干预。
举个例子:
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
replicas: 3
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.0
ports:
- containerPort: 80
使用kubectl create -f **.yaml创建该Deployment。
使用kubectl get deployments,就会发现刚才创建的deployment有三个副本。
使用kubectl get rs和kubectl get pods可查看已创建的RS和pod,使用kubectl get pod -o wide可以查看pod的分配情况。
定向调度
在实际应用中,经常会需要将Pod调度到指定的一些Node节点上,这时候可配置NodeSelector或者NodeAffinity来进行定向调度。
NodeSelector
具体的使用:
- 通过kubectl label命令给目标Node打上标签,可通过kubectl label nodes命令查看所有节点的标签;
- 在Pod的定义中加上NodeSelector的设置
- 运行kubectl create -f 命令创建Pod时,scheduler就会将pod自动调度指定标签的Node上。
NodeAffinity(节点亲和力调度)
NodeSelector通过标签机制,简单的限制了Pod所在节点的方法,亲和力调度机制则更好扩展了Pod的调度能力,可以使用软限制,支持In、NotIn、Exists、DoesNotExist、Gt、LT等操作符。
- 可依据节点上正在运行的其它Pod的标签来进行限制,而非节点本身的标签。
需要注意以下几点:
- 如果同时定义了nodeSelector和nodeAffinity,则必须两个条件都满足
- 如果nodeAffinity指定了多个nodeSelectorTerms,则其中一个匹配成功即可。
- 如果nodeSelectorTerms中有多个matchExpressions。则一个节点必须满足所有matchExpressions才能运行该Pod
PodAffinity(Pod亲和与互斥调度)
根据节点上正在运行的Pod标签而非节点的标签进行判断和调度,对节点和Pod两个条件进行匹配。
具体的使用:
- 创建一个名为pod-flag的pod,设置标签
- 亲和性调度:创建pod-flag在同一个Node节点的pod
- 互斥性调度:可创建与pod-flag不在同一个Node节点的pod
DaemonSet
用于管理在集群的每个Node上仅运行一份pod的副本实例。适用场景:日志采集、性能监控等。
优先调度
为了提高资源利用率,我们通常会采用优先级方案,即不同类型的负载对应不同的优先级,并且当发生资源不足时,系统可以选择释放一些不重要的负载,保障最重要的负载以获取足够的资源稳定运行。
优先级抢占调度策略的有两个核心点:
- 驱逐(Eviction):kubelet的行为,当一个Node发生资源不足时,该结点上的kubelet进程会综合考虑优先级、资源申请量和实际资源使用等进行驱逐
- 抢占(Preemption):scheduler的行为,当一个新的pod因资源无法满足而不能调度时,scheduler可能会选择(跨节点或本节点)驱逐部分低优先级的pod实例来满足调度
批处理调度 Job
可以通过Job来定义并启动一个批处理任务(并行启动多个进程去处理一些工作项),处理完成后,整个批处理任务结束。
定时任务 Cronjob
类似Linux Cron的定时任务Cron Job。
除此以外,你还可以自定义调度器。
升级和回滚
为了保证服务的高可用,k8s提供了滚动升级功能。主要介绍下deployment。
Deployment
升级
更新镜像名的话,有以下方法进行更新:
- 通过
kubectl set image
命令设置新的镜像名 - 使用
kubectl edit
命令修改Deployment的配置,根据yaml的结构更新(比如:将spec.template.spec.containers[0].image从nginx:1.0改为nginx:1.1)。
对于RC的滚动升级,可以使用 kubectl rolling-update
命令,该命令会创建一个新的RC,自动控制旧的RC中pod副本数量逐渐减少到0,新的RC中的Pod副本数量从0逐步增加到目标值。
一旦pod的定义发生了修改,则将触发系统完成Deployment中所有pod的滚动操作,可使用 kubectl rollout status
查看滚动更新过程。
在升级过程中,deployment能够保证服务不中断,并且副本数量始终维持在用户指定数量。可在Deployment定义中,通过spec.strategy指定pod的更新策略,包括:
- Recreate 重建
- RollingUpdate 滚动更新
回滚
服务稳定性或者配置错误等原因会使得我们需要进行回滚,Deployment的所有发布历史记录都被保留在系统中,所以回滚是很方便的。具体操作:
- 用kubectl rollout history查看deployment的部署历史记录,确定要回退的版本,可以加上--revision=参数查看特定版本详情
- 回退到上一个版本或者指定版本
- kubectl describe deployment查看操作过程
对于相对复杂的配置修改,为了避免频繁大量触发更新操作,可使用 kubectl rollout pause
命令暂停更新操作,然后进行配置修改,最后恢复deployment,一次性触发完整的更新操作。
扩缩容
伴随着资源的使用情况,常需要对pod进行扩缩容,可以利用Deployment/RC的Scale机制来实现,分为手动和自动两种模式。
手动
通过 kubectl scale deployment *** --replicas 3
命令更新Pod副本数量,将--replicas设置比当前pod副本数量更小的数字的话,系统会kill一些正在运行的pod。
自动
用户指定pod副本的数量范围,设定依据的性能指标或者自定义业务指标,系统将自动的在这个范围内根据性能指标变化调整pod副本数量。
k8s 1.1版本开始新增了HPA控制器,基于Master的kube-controller-manager服务启动参数--horizontal-pod-autoscal-sync-period定义的探测周期,周期性检测目标pod的资源性能指标。并与设定的扩容条件进行对比,进行pod副本数量的自动调整。
以上。