DaemonSet
DaemonSet
通过该控制器的名称我们可以看出它的用法:**Daemon**
,就是用来部署守护进程的,DaemonSet
用于在每个 Kubernetes 节点中将守护进程的副本作为后台进程运行,说白了就是在每个节点部署一个 Pod副本,当节点加入到 Kubernetes 集群中,Pod 会被调度到该节点上运行,当节点从集群够被移除后,该节点上的这个 Pod 也会被移除,当然,如果我们删除 DaemonSet,所有和这个对象相关的 Pods都会被删除。那么在哪种情况下我们会需要用到这种业务场景呢?其实这种场景还是比较普通的,比如:
集群存储守护程序:如 glusterd、ceph 要部署在每个节点上以提供持久性存储;
节点监控守护进程:如 Prometheus 监控集群,可以在每个节点上运行一个
node-exporter
进程来收集监控节点的信息;日志收集守护程序:如 fluentd 或 logstash,在每个节点上运行以收集容器的日志
节点网络插件:比如 flannel、calico,在每个节点上运行为 Pod 提供网络服务。
⚠️ 这里需要特别说明的一个就是关于 DaemonSet 运行的 Pod 的调度问题,正常情况下,Pod 运行在哪个节点上是由 Kubernetes 的调度器策略来决定的,然而,由 DaemonSet 控制器创建的 Pod 实际上提前已经确定了在哪个节点上了(Pod创建时指定了**.spec.nodeName**
),所以:
**DaemonSet**
并不关心一个节点的**unshedulable😂**
字段,这个我们会在后面的调度章节和大家讲解的。**DaemonSet**
可以创建 Pod,即使调度器还没有启动。
注意:Daemonset的简写是ds
:
[root@nfs-server ~]#kubectl api-resources|head -1; kubectl api-resources |grep daemonsets
NAME SHORTNAMES APIVERSION NAMESPACED KIND
daemonsets ds apps/v1 true DaemonSet
DaemonSet是受污点的的影响的;
💘 实战:Daemonset测试-2022.12.22(成功测试)
- 实验环境
1、win10,vmwrokstation虚机;
2、k8s集群:3台centos7.6 1810虚机,2个master节点,1个node节点
k8s version:v1.20
CONTAINER-RUNTIME:containerd:v1.6.10
- 实验软件(无)
下面我们直接使用一个示例来演示下
- 在每个节点上部署一个 Nginx Pod
# nginx-ds.yaml
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: nginx-ds
namespace: default
spec:
selector:
matchLabels:
k8s-app: nginx
template:
metadata:
labels:
k8s-app: nginx
spec:
containers:
- image: nginx:1.7.9
name: nginx
ports:
- name: http
containerPort: 80
注意:我们可以看到,DaemonSet的yaml写法和Deployment非常类似,只是改变了下kind名称,注意下DaemonSet是没有副本数这一参数选项的。
- 部署
[root@master1 ~]#kubectl apply -f nginx-ds.yaml
daemonset.apps/nginx-ds created
- 创建完成后,我们查看 Pod 的状态
[root@master1 ~]#kubectl get node
NAME STATUS ROLES AGE VERSION
master1 Ready control-plane,master 19d v1.22.2
node1 Ready <none> 19d v1.22.2
node2 Ready <none> 19d v1.22.2
[root@master1 ~]#kubectl get po -l k8s-app=nginx -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-ds-g5jf4 1/1 Running 0 85s 10.244.1.82 node1 <none> <none>
nginx-ds-hl7fx 1/1 Running 0 85s 10.244.2.106 node2 <none> <none>
我们观察可以发现除了 master1 节点之外的2个节点上都有一个相应的 Pod 运行,因为 master1 节点上默认被打上了**污点(taints)**
,所以默认情况下不能调度普通的 Pod 上去,后面讲解调度器的时候会和大家学习如何调度上去。
- 注意:我们这里先来提前看看master节点是如何打上污点的。
1、首先来看看这3个节点上是否打了污点呢?
[root@master1 ~]#kubectl describe node master1 |grep Taints
Taints: node-role.kubernetes.io/master:NoSchedule
[root@master1 ~]#kubectl describe node node1 |grep Taints
Taints: <none>
[root@master1 ~]#kubectl describe node node2 |grep Taints
Taints: <none>
[root@master1 ~]#
我们可以看到只有master节点被打上了污点:`NoSchedule`;
某个节点上如果被打上了污点的话,那么普通pod是不会被调度到其上面的,除非添加了`容忍`才可以;
2、这个master1节点的`污点`是当时我们再搭建集群的时候就已经打上了的。我们可以看看当时搭建k8s集群的kubeadm.yaml文件内容。
vim kubeadm.yaml
1 apiVersion: kubeadm.k8s.io/v1beta3
2 bootstrapTokens:
3 - groups:
4 - system:bootstrappers:kubeadm:default-node-token
5 token: abcdef.0123456789abcdef
6 ttl: 24h0m0s
7 usages:
8 - signing
9 - authentication
10 kind: InitConfiguration
11 localAPIEndpoint:
12 advertiseAddress: 172.29.9.51
13 bindPort: 6443
14 nodeRegistration:
15 criSocket: /run/containerd/containerd.sock
16 imagePullPolicy: IfNotPresent
17 name: master1
18 taints:
19 - effect: "NoSchedule" #这里打了污点
20 key: "node-role.kubernetes.io/master"
3、那么有的同学就会问:那么为什么你的`flannel和kubeproxy`pod都会在每个节点上创建1个pod呢?(包括master节点)
这是因为flannel和kube-proxy配置清单里,daemonset那里有配置了容忍,所以才会在打了污点的master节点也调度一个pod。
vim kube-flannel.yml
- 注意:
DaemonSet
和replicaset
是非常相似的,直接控制pod:
[root@master1 ~]#kubectl get po
NAME READY STATUS RESTARTS AGE
nginx-ds-g5jf4 1/1 Running 0 34m
nginx-ds-hl7fx 1/1 Running 0 34m
[root@master1 ~]#kubectl describe pod nginx-ds-g5jf4
……
Controlled By: DaemonSet/nginx-ds
……
- 我们再来把其中一个pod删除下,观察下这个pod是否会被立马重建?
[root@master1 ~]#kubectl get po -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-ds-g5jf4 1/1 Running 0 9h 10.244.1.82 node1 <none> <none>
nginx-ds-hl7fx 1/1 Running 0 9h 10.244.2.106 node2 <none> <none>
[root@master1 ~]#kubectl delete po nginx-ds-g5jf4
pod "nginx-ds-g5jf4" deleted
[root@master1 ~]#kubectl get po -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-ds-cg86w 1/1 Running 0 1s 10.244.1.83 node1 <none> <none>
nginx-ds-hl7fx 1/1 Running 0 9h 10.244.2.106 node2 <none> <none>
[root@master1 ~]#
我们可以发现,一旦某个节点的pod被删除,会被立马创建的。
实验结束。😘
基本上我们可以用下图来描述 DaemonSet 的拓扑图:
集群中的 Pod 和 Node 是一一对应的,而 DaemonSet 会管理全部机器上的 Pod 副本,负责对它们进行更新和删除。
那么,DaemonSet 控制器是如何保证每个 Node 上有且只有一个被管理的 Pod 呢?
- 首先控制器从 Etcd 获取到所有的 Node 列表,然后遍历所有的 Node。
- 根据资源对象定义是否有调度相关的配置,然后分别检查 Node 是否符合要求。
- 在可运行 Pod 的节点上检查是否已有对应的 Pod,如果没有,则在这个 Node 上创建该 Pod;如果有,并且数量大于 1,那就把多余的 Pod 从这个节点上删除;如果有且只有一个 Pod,那就说明是正常情况。
实际上当我们学习了资源调度后,我们也可以自己用 Deployment 来实现 DaemonSet 的效果,这里我们明白 DaemonSet 如何使用的即可。当然该资源对象也有对应的更新策略,有 OnDelete
和 RollingUpdate
两种方式,默认是滚动更新。
关于我
我的博客主旨:
- 排版美观,语言精炼;
- 文档即手册,步骤明细,拒绝埋坑,提供源码;
- 本人实战文档都是亲测成功的,各位小伙伴在实际操作过程中如有什么疑问,可随时联系本人帮您解决问题,让我们一起进步!
🍀 微信二维码 x2675263825 (舍得), qq:2675263825。
🍀 微信公众号 《云原生架构师实战》
🍀 个人博客站点
http://47.97.48.237/ (即将上线域名:onedayxyy.cn)
🍀 语雀
https://www.yuque.com/xyy-onlyone
🍀 csdn https://blog.csdn.net/weixin_39246554?spm=1010.2135.3001.5421
🍀 知乎 https://www.zhihu.com/people/foryouone
最后
好了,关于本次就到这里了,感谢大家阅读,最后祝大家生活快乐,每天都过的有意义哦,我们下期见!