DaemonSet
DaemonSet
通过该控制器的名称我们可以看出它的用法:**Daemon**
,就是用来部署守护进程的,DaemonSet
用于在每个 Kubernetes 节点中将守护进程的副本作为后台进程运行,说白了就是在每个节点部署一个 Pod副本,当节点加入到 Kubernetes 集群中,Pod 会被调度到该节点上运行,当节点从集群够被移除后,该节点上的这个 Pod 也会被移除,当然,如果我们删除 DaemonSet,所有和这个对象相关的 Pods都会被删除。那么在哪种情况下我们会需要用到这种业务场景呢?其实这种场景还是比较普通的,比如:
集群存储守护程序:如 glusterd、ceph 要部署在每个节点上以提供持久性存储;
节点监控守护进程:如 Prometheus 监控集群,可以在每个节点上运行一个
node-exporter
进程来收集监控节点的信息;日志收集守护程序:如 fluentd 或 logstash,在每个节点上运行以收集容器的日志
节点网络插件:比如 flannel、calico,在每个节点上运行为 Pod 提供网络服务。
⚠️ 这里需要特别说明的一个就是关于 DaemonSet 运行的 Pod 的调度问题,正常情况下,Pod 运行在哪个节点上是由 Kubernetes 的调度器策略来决定的,然而,由 DaemonSet 控制器创建的 Pod 实际上提前已经确定了在哪个节点上了(Pod创建时指定了**.spec.nodeName**
),所以:
**DaemonSet**
并不关心一个节点的**unshedulable😂**
字段,这个我们会在后面的调度章节和大家讲解的。**DaemonSet**
可以创建 Pod,即使调度器还没有启动。
注意:Daemonset的简写是ds
:
[root@nfs-server ~]#kubectl api-resources|head-1;kubectlapi-resources|grepdaemonsetsNAMESHORTNAMESAPIVERSIONNAMESPACEDKINDdaemonsetsdsapps/v1trueDaemonSet
DaemonSet是受污点的的影响的;
💘 实战:Daemonset测试-2022.12.22(成功测试)
- 实验环境
1、win10,vmwrokstation虚机;2、k8s集群:3台centos7.61810虚机,2个master节点,1个node节点k8sversion:v1.20CONTAINER-RUNTIME:containerd:v1.6.10
- 实验软件(无)
下面我们直接使用一个示例来演示下
- 在每个节点上部署一个 Nginx Pod
# nginx-ds.yamlapiVersion:apps/v1kind:DaemonSetmetadata:name:nginx-dsnamespace:defaultspec:selector:matchLabels:k8s-app:nginxtemplate:metadata:labels:k8s-app:nginxspec:containers:- image:nginx:1.7.9name:nginxports:- name:httpcontainerPort:80
注意:我们可以看到,DaemonSet的yaml写法和Deployment非常类似,只是改变了下kind名称,注意下DaemonSet是没有副本数这一参数选项的。
- 部署
[root@master1 ~]#kubectl apply -f nginx-ds.yamldaemonset.apps/nginx-dscreated
- 创建完成后,我们查看 Pod 的状态
[root@master1 ~]#kubectl get nodeNAMESTATUSROLESAGEVERSIONmaster1Readycontrol-plane,master19dv1.22.2node1Ready<none>19dv1.22.2node2Ready<none>19dv1.22.2[root@master1 ~]#kubectl get po -l k8s-app=nginx-owideNAMEREADYSTATUSRESTARTSAGEIPNODENOMINATEDNODEREADINESSGATESnginx-ds-g5jf41/1Running085s10.244.1.82node1<none><none>nginx-ds-hl7fx1/1Running085s10.244.2.106node2<none><none>
我们观察可以发现除了 master1 节点之外的2个节点上都有一个相应的 Pod 运行,因为 master1 节点上默认被打上了**污点(taints)**
,所以默认情况下不能调度普通的 Pod 上去,后面讲解调度器的时候会和大家学习如何调度上去。
- 注意:我们这里先来提前看看master节点是如何打上污点的。
1、首先来看看这3个节点上是否打了污点呢?[root@master1 ~]#kubectl describe node master1 |grepTaintsTaints:node-role.kubernetes.io/master:NoSchedule[root@master1 ~]#kubectl describe node node1 |grepTaintsTaints:<none>[root@master1 ~]#kubectl describe node node2 |grepTaintsTaints:<none>[root@master1 ~]#我们可以看到只有master节点被打上了污点:`NoSchedule`;某个节点上如果被打上了污点的话,那么普通pod是不会被调度到其上面的,除非添加了`容忍`才可以;2、这个master1节点的`污点`是当时我们再搭建集群的时候就已经打上了的。我们可以看看当时搭建k8s集群的kubeadm.yaml文件内容。vimkubeadm.yaml1apiVersion:kubeadm.k8s.io/v1beta32bootstrapTokens:3-groups:4-system:bootstrappers:kubeadm:default-node-token5token:abcdef.0123456789abcdef6ttl:24h0m0s7usages:8-signing9-authentication10kind:InitConfiguration11localAPIEndpoint:12advertiseAddress:172.29.9.5113bindPort:644314nodeRegistration:15criSocket:/run/containerd/containerd.sock16imagePullPolicy:IfNotPresent17name:master118taints:19-effect:"NoSchedule"#这里打了污点20key:"node-role.kubernetes.io/master"3、那么有的同学就会问:那么为什么你的`flannel和kubeproxy`pod都会在每个节点上创建1个pod呢?(包括master节点)
这是因为flannel和kube-proxy配置清单里,daemonset那里有配置了容忍,所以才会在打了污点的master节点也调度一个pod。vimkube-flannel.yml
- 注意:
DaemonSet
和replicaset
是非常相似的,直接控制pod:
[root@master1 ~]#kubectl get poNAMEREADYSTATUSRESTARTSAGEnginx-ds-g5jf41/1Running034mnginx-ds-hl7fx1/1Running034m[root@master1 ~]#kubectl describe pod nginx-ds-g5jf4……ControlledBy:DaemonSet/nginx-ds……
- 我们再来把其中一个pod删除下,观察下这个pod是否会被立马重建?
[root@master1 ~]#kubectl get po -owideNAMEREADYSTATUSRESTARTSAGEIPNODENOMINATEDNODEREADINESSGATESnginx-ds-g5jf41/1Running09h10.244.1.82node1<none><none>nginx-ds-hl7fx1/1Running09h10.244.2.106node2<none><none>[root@master1 ~]#kubectl delete po nginx-ds-g5jf4pod"nginx-ds-g5jf4"deleted[root@master1 ~]#kubectl get po -owideNAMEREADYSTATUSRESTARTSAGEIPNODENOMINATEDNODEREADINESSGATESnginx-ds-cg86w1/1Running01s10.244.1.83node1<none><none>nginx-ds-hl7fx1/1Running09h10.244.2.106node2<none><none>[root@master1 ~]#
我们可以发现,一旦某个节点的pod被删除,会被立马创建的。
实验结束。😘
基本上我们可以用下图来描述 DaemonSet 的拓扑图:
集群中的 Pod 和 Node 是一一对应的,而 DaemonSet 会管理全部机器上的 Pod 副本,负责对它们进行更新和删除。
那么,DaemonSet 控制器是如何保证每个 Node 上有且只有一个被管理的 Pod 呢?
- 首先控制器从 Etcd 获取到所有的 Node 列表,然后遍历所有的 Node。
- 根据资源对象定义是否有调度相关的配置,然后分别检查 Node 是否符合要求。
- 在可运行 Pod 的节点上检查是否已有对应的 Pod,如果没有,则在这个 Node 上创建该 Pod;如果有,并且数量大于 1,那就把多余的 Pod 从这个节点上删除;如果有且只有一个 Pod,那就说明是正常情况。
实际上当我们学习了资源调度后,我们也可以自己用 Deployment 来实现 DaemonSet 的效果,这里我们明白 DaemonSet 如何使用的即可。当然该资源对象也有对应的更新策略,有 OnDelete
和 RollingUpdate
两种方式,默认是滚动更新。
关于我
我的博客主旨:
- 排版美观,语言精炼;
- 文档即手册,步骤明细,拒绝埋坑,提供源码;
- 本人实战文档都是亲测成功的,各位小伙伴在实际操作过程中如有什么疑问,可随时联系本人帮您解决问题,让我们一起进步!
🍀 微信二维码 x2675263825 (舍得), qq:2675263825。
🍀 微信公众号 《云原生架构师实战》
🍀 个人博客站点
上次更新时间: