Skip to content

DaemonSet

DaemonSet

img

通过该控制器的名称我们可以看出它的用法:**Daemon**,就是用来部署守护进程的DaemonSet用于在每个 Kubernetes 节点中将守护进程的副本作为后台进程运行,说白了就是在每个节点部署一个 Pod副本,当节点加入到 Kubernetes 集群中,Pod 会被调度到该节点上运行,当节点从集群够被移除后,该节点上的这个 Pod 也会被移除,当然,如果我们删除 DaemonSet,所有和这个对象相关的 Pods都会被删除。那么在哪种情况下我们会需要用到这种业务场景呢?其实这种场景还是比较普通的,比如:

  • 集群存储守护程序:如 glusterd、ceph 要部署在每个节点上以提供持久性存储;

  • 节点监控守护进程:如 Prometheus 监控集群,可以在每个节点上运行一个 node-exporter进程来收集监控节点的信息;

  • 日志收集守护程序:如 fluentd 或 logstash,在每个节点上运行以收集容器的日志

  • 节点网络插件:比如 flannel、calico,在每个节点上运行为 Pod 提供网络服务。

⚠️ 这里需要特别说明的一个就是关于 DaemonSet 运行的 Pod 的调度问题,正常情况下,Pod 运行在哪个节点上是由 Kubernetes 的调度器策略来决定的,然而,由 DaemonSet 控制器创建的 Pod 实际上提前已经确定了在哪个节点上了(Pod创建时指定了**.spec.nodeName**,所以:

  • **DaemonSet**并不关心一个节点的**unshedulable😂**字段,这个我们会在后面的调度章节和大家讲解的。

  • **DaemonSet**可以创建 Pod,即使调度器还没有启动。

注意:Daemonset的简写是ds

bash
[root@nfs-server ~]#kubectl api-resources|head-1;kubectlapi-resources|grepdaemonsetsNAMESHORTNAMESAPIVERSIONNAMESPACEDKINDdaemonsetsdsapps/v1trueDaemonSet

DaemonSet是受污点的的影响的;

💘 实战:Daemonset测试-2022.12.22(成功测试)

  • 实验环境
bash
1、win10,vmwrokstation虚机;2、k8s集群:3台centos7.61810虚机,2个master节点,1个node节点k8sversion:v1.20CONTAINER-RUNTIME:containerd:v1.6.10
  • 实验软件(无)

下面我们直接使用一个示例来演示下

  • 在每个节点上部署一个 Nginx Pod
yaml
# nginx-ds.yamlapiVersion:apps/v1kind:DaemonSetmetadata:name:nginx-dsnamespace:defaultspec:selector:matchLabels:k8s-app:nginxtemplate:metadata:labels:k8s-app:nginxspec:containers:- image:nginx:1.7.9name:nginxports:- name:httpcontainerPort:80

注意:我们可以看到,DaemonSet的yaml写法和Deployment非常类似,只是改变了下kind名称,注意下DaemonSet是没有副本数这一参数选项的。

  • 部署
bash
[root@master1 ~]#kubectl apply -f nginx-ds.yamldaemonset.apps/nginx-dscreated
  • 创建完成后,我们查看 Pod 的状态
bash
[root@master1 ~]#kubectl get nodeNAMESTATUSROLESAGEVERSIONmaster1Readycontrol-plane,master19dv1.22.2node1Ready<none>19dv1.22.2node2Ready<none>19dv1.22.2[root@master1 ~]#kubectl get po -l k8s-app=nginx-owideNAMEREADYSTATUSRESTARTSAGEIPNODENOMINATEDNODEREADINESSGATESnginx-ds-g5jf41/1Running085s10.244.1.82node1<none><none>nginx-ds-hl7fx1/1Running085s10.244.2.106node2<none><none>

我们观察可以发现除了 master1 节点之外的2个节点上都有一个相应的 Pod 运行,因为 master1 节点上默认被打上了**污点(taints)**,所以默认情况下不能调度普通的 Pod 上去,后面讲解调度器的时候会和大家学习如何调度上去。

  • 注意:我们这里先来提前看看master节点是如何打上污点的。
bash
1、首先来看看这3个节点上是否打了污点呢?[root@master1 ~]#kubectl describe node master1 |grepTaintsTaints:node-role.kubernetes.io/master:NoSchedule[root@master1 ~]#kubectl describe node node1 |grepTaintsTaints:<none>[root@master1 ~]#kubectl describe node node2 |grepTaintsTaints:<none>[root@master1 ~]#我们可以看到只有master节点被打上了污点:`NoSchedule`某个节点上如果被打上了污点的话,那么普通pod是不会被调度到其上面的,除非添加了`容忍`才可以;2、这个master1节点的`污点`是当时我们再搭建集群的时候就已经打上了的。我们可以看看当时搭建k8s集群的kubeadm.yaml文件内容。vimkubeadm.yaml1apiVersion:kubeadm.k8s.io/v1beta32bootstrapTokens:3-groups:4-system:bootstrappers:kubeadm:default-node-token5token:abcdef.0123456789abcdef6ttl:24h0m0s7usages:8-signing9-authentication10kind:InitConfiguration11localAPIEndpoint:12advertiseAddress:172.29.9.5113bindPort:644314nodeRegistration:15criSocket:/run/containerd/containerd.sock16imagePullPolicy:IfNotPresent17name:master118taints:19-effect:"NoSchedule"#这里打了污点20key:"node-role.kubernetes.io/master"3、那么有的同学就会问:那么为什么你的`flannel和kubeproxy`pod都会在每个节点上创建1个pod呢?(包括master节点)

img

bash
这是因为flannel和kube-proxy配置清单里,daemonset那里有配置了容忍,所以才会在打了污点的master节点也调度一个pod。vimkube-flannel.yml

img

  • 注意:DaemonSetreplicaset是非常相似的,直接控制pod:
bash
[root@master1 ~]#kubectl get poNAMEREADYSTATUSRESTARTSAGEnginx-ds-g5jf41/1Running034mnginx-ds-hl7fx1/1Running034m[root@master1 ~]#kubectl describe pod nginx-ds-g5jf4……ControlledBy:DaemonSet/nginx-ds……
  • 我们再来把其中一个pod删除下,观察下这个pod是否会被立马重建?
bash
[root@master1 ~]#kubectl get po -owideNAMEREADYSTATUSRESTARTSAGEIPNODENOMINATEDNODEREADINESSGATESnginx-ds-g5jf41/1Running09h10.244.1.82node1<none><none>nginx-ds-hl7fx1/1Running09h10.244.2.106node2<none><none>[root@master1 ~]#kubectl delete po nginx-ds-g5jf4pod"nginx-ds-g5jf4"deleted[root@master1 ~]#kubectl get po -owideNAMEREADYSTATUSRESTARTSAGEIPNODENOMINATEDNODEREADINESSGATESnginx-ds-cg86w1/1Running01s10.244.1.83node1<none><none>nginx-ds-hl7fx1/1Running09h10.244.2.106node2<none><none>[root@master1 ~]#

我们可以发现,一旦某个节点的pod被删除,会被立马创建的。

实验结束。😘

基本上我们可以用下图来描述 DaemonSet 的拓扑图:

img

集群中的 Pod 和 Node 是一一对应的,而 DaemonSet 会管理全部机器上的 Pod 副本,负责对它们进行更新和删除。

那么,DaemonSet 控制器是如何保证每个 Node 上有且只有一个被管理的 Pod 呢?

  • 首先控制器从 Etcd 获取到所有的 Node 列表,然后遍历所有的 Node。
  • 根据资源对象定义是否有调度相关的配置,然后分别检查 Node 是否符合要求。
  • 在可运行 Pod 的节点上检查是否已有对应的 Pod,如果没有,则在这个 Node 上创建该 Pod;如果有,并且数量大于 1,那就把多余的 Pod 从这个节点上删除;如果有且只有一个 Pod,那就说明是正常情况。

实际上当我们学习了资源调度后,我们也可以自己用 Deployment 来实现 DaemonSet 的效果,这里我们明白 DaemonSet 如何使用的即可。当然该资源对象也有对应的更新策略,有 OnDeleteRollingUpdate两种方式,默认是滚动更新。

关于我

我的博客主旨:

  • 排版美观,语言精炼;
  • 文档即手册,步骤明细,拒绝埋坑,提供源码;
  • 本人实战文档都是亲测成功的,各位小伙伴在实际操作过程中如有什么疑问,可随时联系本人帮您解决问题,让我们一起进步!

🍀 微信二维码 x2675263825 (舍得), qq:2675263825。

image-20230107215114763

🍀 微信公众号 《云原生架构师实战》

image-20230107215126971

🍀 个人博客站点

http:

版权:此文章版权归 One 所有,如有转载,请注明出处!

链接:可点击右上角分享此页面复制文章链接

上次更新时间:

最近更新