k8s面试题
目录
[toc]
常规题
概述
简述 Kubernetes 的优势、适应场景及其特点?
答:
Kubernetes 作为一个完备的分布式系统支撑平台,其主要优势:
- 容器编排
- 轻量级
- 开源
- 弹性伸缩
- 负载均衡
Kubernetes 常见场景:
- 快速部署应用
- 快速扩展应用
- 无缝对接新的应用功能
- 节省资源,优化硬件资源的使用
Kubernetes 相关特点:
- 可移植:支持公有云、私有云、混合云、多重云(multi-cloud)。
- 可扩展:模块化,、插件化、可挂载、可组合。
- 自动化:自动部署、自动重启、自动复制、自动伸缩/扩展。
简述 Kubernetes 的缺点或当前的不足之处
Kubernetes 当前存在的缺点(不足)如下:
- 安装过程和配置相对困难复杂。
- 管理服务相对繁琐。
- 运行和编译需要很多时间。
- 它比其他替代品更昂贵。
- 对于简单的应用程序来说,可能不需要涉及 Kubernetes 即可满足。
k8s是什么?请说出你的了解
答:Kubernetes是一个针对容器应用,进行自动部署,弹性伸缩和管理的开源系统。主要功能是生产环境中的容器编排。
K8S是Google公司推出的,它来源于由Google公司内部使用了15年的Borg系统,集结了Borg的精华。
简述什么是 Kubernetes
答:
Kubernetes 是一个全新的基于容器技术的分布式系统支撑平台。
是 Google 开源的容器集群管理系统(谷歌内部:Borg)。
在 Docker 技术的基础上,为容器化的应用提供部署运行、资源调度、服务发现和动态伸缩等一系列完整功能,提高了大规模容器集群管理的便捷性。并且具有完备的集群管理能力,多层次的安全防护和准入机制、多租户应用支撑能力、透明的服务注册和发现机制、內建智能负载均衡器、强大的故障发现和自我修复能力、服务滚动升级和在线扩容能力、可扩展的资源自动调度机制以及多粒度的资源配额管理能力。
简述 Kubernetes 和 Docker 的关系
答:
Docker 提供容器的生命周期管理,Docker 镜像构建运行时容器。它的主要优点是将将软件/应用程序运行所需的设置和依赖项打包到一个容器中,从而实现了可移植性等优点。 Kubernetes 用于关联和编排在多个主机上运行的容器。
什么是Kubernetes?它的主要目标是什么?
架构
简述 Kubernetes 相关基础概念
答:
master:k8s 集群的管理节点,负责管理集群,提供集群的资源数据访问入口。拥有 Etcd 存储服务(可选),运行 Api Server 进程,Controller Manager 服务进程及 Scheduler 服务进程。
node(worker):Node(worker)是 Kubernetes 集群架构中运行 Pod 的服务节点,是 Kubernetes 集群操作的单元,用来承载被分配 Pod 的运行,是 Pod运行的宿主机。运行 docker eninge 服务,守护进程 kunelet 及负载均衡器kube-proxy。
pod:运行于 Node 节点上,若干相关容器的组合。Pod 内包含的容器运行在同一宿主机上,使用相同的网络命名空间、IP 地址和端口,能够通过 localhost 进行通信。Pod 是 Kurbernetes 进行创建、调度和管理的最小单位,它提供了比容器更高层次的抽象,使得部署和管理更加灵活。一个 Pod 可以包含一个容器或者多个相关容器。
label:Kubernetes 中的 Label 实质是一系列的 Key/Value 键值对,其中 key 与value 可自定义。Label 可以附加到各种资源对象上,如 Node、Pod、Service、RC 等。一个资源对象可以定义任意数量的 Label,同一个 Label 也可以被添加到任意数量的资源对象上去。Kubernetes 通过 **Label Selector(标签选择器)**查询和筛选资源对象。
Replication Controller:Replication Controller 用来管理 Pod 的副本,保证集群中存在指定数量的 Pod 副本。集群中副本的数量大于指定数量,则会停止指定数量之外的多余容器数量。反之,则会启动少于指定数量个数的容器,保证数量不变。Replication Controller 是实现弹性伸缩、动态扩容和滚动升级的核心。
Deployment:Deployment 在内部使用了 RS 来实现目的,Deployment 相当于 RC 的一次升级,其最大的特色为可以随时获知当前 Pod 的部署进度。
HPA(Horizontal Pod Autoscaler):Pod 的横向自动扩容,也是 Kubernetes的一种资源,通过追踪分析 RC 控制的所有 Pod 目标的负载变化情况,来确定是否需要针对性的调整 Pod 副本数量。
Service:Service 定义了 Pod 的逻辑集合和访问该集合的策略,是真实服务的抽象。Service 提供了一个统一的服务访问入口以及服务代理和发现机制,关联多个相同 Label 的 Pod,用户不需要了解后台 Pod 是如何运行。
Volume:Volume 是 Pod 中能够被多个容器访问的共享目录,Kubernetes 中的Volume 是定义在 Pod 上,可以被一个或多个 Pod 中的容器挂载到某个目录下。
Namespace:Namespace 用于实现多租户的资源隔离,可将集群内部的资源对象分配到不同的 Namespace 中,形成逻辑上的不同项目、小组或用户组,便于不同的 Namespace 在共享使用整个集群的资源的同时还能被分别管理。
K8s架构的组成是什么
答:
和大多数分布式系统一样,K8S集群至少需要一个主节点(Master)和多个计算节点(Node)。
- 主节点主要用于暴露API,调度部署和节点的管理;
- 计算节点运行一个容器运行环境,一般是docker环境(类似docker环境的还有rkt),同时运行一个K8s的代理(kubelet)用于和master通信。计算节点也会运行一些额外的组件,像记录日志,节点监控,服务发现等等,计算节点是k8s集群中真正工作的节点。
K8S架构细分:
1、Master节点(默认不参加实际工作):
- Kubectl:客户端命令行工具,作为整个K8s集群的操作入口;
- Api Server:在K8s架构中承担的是“桥梁”的角色,作为资源操作的唯一入口,它提供了认证、授权、访问控制、API注册和发现等机制。客户端与k8s群集及K8s内部组件的通信,都要通过ApiServer这个组件;
- Controller-manager:负责维护群集的状态,比如故障检测、自动扩展、滚动更新等;
- Scheduler:负责资源的调度,按照预定的调度策略将pod调度到相应的node节点上;
- Etcd:担任数据中心的角色,保存了整个群集的状态;
2、Node节点:
Kubelet:
- 负责维护容器的生命周期,同时也负责Volume和网络的管理;
- 一般运行在所有的节点,是Node节点的代理,当Scheduler确定某个node上运行pod之后,会将pod的具体信息(image,volume)等发送给该节点的kubelet,kubelet根据这些信息创建和运行容器,并向master返回运行状态。(自动修复功能:如果某个节点中的容器宕机,它会尝试重启该容器,若重启无效,则会将该pod杀死,然后重新创建一个容器);
Kube-proxy:Service在逻辑上代表了后端的多个pod。负责为Service提供cluster内部的服务发现和负载均衡(外界通过Service访问pod提供的服务时,Service接收到的请求后就是通过kubeproxy来转发到pod上的);
container-runtime:是负责管理运行容器的软件,比如docker
简述 Kubernetes 集群相关组件
答:Kubernetes Master 控制组件,调度管理整个系统(集群),包含如下组件:
Kubernetes API Server:作为 Kubernetes 系统的入口,其封装了核心对象的增删改查操作,以 RESTful API 接口方式提供给外部客户和内部组件调用,集群内各个功能模块之间数据交互和通信的中心枢纽。
Kubernetes Scheduler:为新建立的 Pod 进行节点(node)选择(即分配机器),负责集群的资源调度。
Kubernetes Controller:负责执行各种控制器,目前已经提供了很多控制器来保证 Kubernetes 的正常运行。
常见控制器:
Replication Controller:管理维护 Replication Controller,关联 ReplicationController 和 Pod,保证 Replication Controller 定义的副本数量与实际运行Pod 数量一致。
Node Controller:管理维护 Node,定期检查 Node 的健康状态,标识出(失效|未失效)的 Node 节点。
Namespace Controller:管理维护 Namespace,定期清理无效的 Namespace,包括 Namesapce 下的 API 对象,比如 Pod、Service 等。
Service Controller:管理维护 Service,提供负载以及服务代理。
EndPoints Controller:管理维护 Endpoints,关联 Service 和 Pod,创建Endpoints 为 Service 的后端,当 Pod 发生变化时,实时更新 Endpoints。
Service Account Controller:管理维护 Service Account,为每个 Namespace创建默认的 Service Account,同时为 Service Account 创建 Service Account Secret。
Persistent Volume Controller:管理维护 Persistent Volume 和 Persistent Volume Claim,为新的 Persistent Volume Claim 分配 Persistent Volume 进行绑定,为释放的 Persistent Volume 执行清理回收。
Daemon Set Controller:管理维护 Daemon Set,负责创建 Daemon Pod,保证指定的 Node 上正常的运行 Daemon Pod。
Deployment Controller:管理维护 Deployment,关联 Deployment 和Replication Controller,保证运行指定数量的 Pod。当 Deployment 更新时,控制实现 Replication Controller 和 Pod 的更新。
Job Controller:管理维护 Job,为 Jod 创建一次性任务 Pod,保证完成 Job 指定完成的任务数目
Pod Autoscaler Controller:实现 Pod 的自动伸缩,定时获取监控数据,进行策略匹配,当满足条件时执行 Pod 的伸缩动作。
k8s中常见类型的资源介绍和区别?
Kubernetes 体系结构有哪些不同的组成部分
答:
Kubernetes 架构主要包含两个组件-主节点和工作节点。
如下图所示,主节点和工作节点中有许多内置组件。主节点具有 kube-controller-manager,kube-apiserver,kube-scheduler 等。而工作程序节点在每个节点上都运行 kubelet 和 kube-proxy。
k8s 中各个节点上组件有哪些?各自作用是什么?
k8s里命名空间的作用?
部署
简述 Kubernetes 常见的部署方式
答:常见的 Kubernetes 部署方式有:
- kubeadm:也是推荐的一种部署方式;
- 二进制:
- minikube:在本地轻松运行一个单节点 Kubernetes 群集的工具。
- sealos:(2次封装kubeadm,可一键安装k8s集群哦)
简述 Kubernetes Worker 节点加入集群的过程
答:通常需要对 Worker 节点进行扩容,从而将应用系统进行水平扩展。主要过程如下:
- 在该 Node 上安装 Docker、kubelet 和 kube-proxy 服务;
- 然后配置 kubelet 和 kubeproxy 的启动参数,将 Master URL 指定为当前Kubernetes 集群 Master 的地址,最后启动这些服务;
- 通过 kubelet 默认的自动注册机制,新的 Worker 将会自动加入现有的Kubernetes 集群中;
- Kubernetes Master 在接受了新 Worker 的注册之后,会自动将其纳入当前集群的调度范围。
k8s 集群中有没有高可用?你们公司的高可用架构是什么样的?
kubeadm初始化的k8s集群,token过期后,集群中如何增加一个新node节点?
简述Kubernetes如何实现集群管理?
API Server
简述 Kubernetes 各模块如何与 API Server 通信?
答:
Kubernetes API Server 作为集群的核心,负责集群各功能模块之间的通信。
集群内的各个功能模块通过 API Server 将信息存入 etcd,当需要获取和操作这些数据时,则通过 API Server 提供的 REST 接口(用 GET、LIST 或 WATCH 方法)来实现,从而实现各模块之间的信息交互。
如 kubelet 进程与 API Server 的交互:每个 Node 上的 kubelet 每隔一个时间周期,就会调用一次 API Server 的 REST 接口报告自身状态,API Server 在接收到这些信息后,会将节点状态信息更新到 etcd 中。
如 kube-controller-manager 进程与 API Server 的交互:kube-controllermanager 中的 Node Controller 模块通过 API Server 提供的 Watch 接口实时监控Node 的信息,并做相应处理。
如 kube-scheduler 进程与 API Server 的交互:Scheduler 通过 API Server 的Watch 接口监听到新建 Pod 副本的信息后,会检索所有符合该 Pod 要求的 Node 列表,开始执行 Pod 调度逻辑,在调度成功后将 Pod 绑定到目标节点上。
客户端访问 k8s资源需要经过几关?分别是什么?
控制器
DaemonSet资源对象的特性
DaemonSet这种资源对象会在每个k8s集群中的节点上运行,并且每个节点只能运行一个pod,这是它和deployment资源对象的最大也是唯一的区别。所以,在其yaml文件中,不支持定义replicas,除此之外,与Deployment、RS等资源对象的写法相同。
它的一般使用场景如下:
- 在去做每个节点的日志收集工作;
- 监控每个节点的的运行状态;
简述 Kubernetes RC 的机制
答:Replication Controller 用来管理 Pod 的副本,保证集群中存在指定数量的 Pod副本。当定义了 RC 并提交至 Kubernetes 集群中之后,Master 节点上的 Controller Manager 组件获悉,并同时巡检系统中当前存活的目标 Pod,并确保目标 Pod 实例的数量刚好等于此 RC 的期望值,若存在过多的 Pod 副本在运行,系统会停止一些Pod,反之则自动创建一些 Pod。
简述 Kubernetes Replica Set 和 Replication Controller 之间有什么区别 🚩
Kubernetes 中的 Replica Set 和 Replication Controller 都是用来确保运行指定数量的 Pod 副本的资源。它们的目的是使得在 Pod 发生故障时能够自动替换它们,保证应用程序的可用性和伸缩性。尽管它们的基本目标相似,但是两者有一些关键的区别:
标签选择器的灵活性:
- Replication Controller (RC):使用等式标签选择器(equality-based selectors)。这意味着它只支持基于等于关系的标签选择,比如
environment =production
。 - Replica Set (RS):使用更加强大的集合式标签选择器(set-based selectors)。这允许更复杂的选择逻辑,比如
environment in (production,qa)
。这种选择器提供了更多的灵活性和匹配能力。
- Replication Controller (RC):使用等式标签选择器(equality-based selectors)。这意味着它只支持基于等于关系的标签选择,比如
版本和使用:
- Replication Controller:是早期 Kubernetes 的一部分,现在已经被认为是过时的,并且被推荐使用 Replica Set 或 Deployments 来替代。
- Replica Set:被引入为替代 Replication Controller 的更高级的副本管理。Replica Set 是 Deployments 的一个组成部分,通常不直接使用 Replica Sets,因为 Deployments 提供了声明式更新以及其它功能。
与 Deployments 的关系:
- Replication Controller:不是 Deployments 的一部分,因为它不支持滚动更新。
- Replica Set:是 Deployments 的一部分,支持滚动更新。当你使用 Deployment 时,它会在后台创建 Replica Set 来管理 Pod 副本。
在实际使用中,==推荐使用 Deployment==,因为它不仅能够维护副本的数量,还能够处理升级和回滚,同时提供更多的配置选项。Replica Sets 通常是由 Deployments 自动管理的,而不是直接手动创建的。
简述你知道的 K8s 中几种 Controller 控制器,并详述其工作原理。
答:
1、deployment:适合无状态的服务部署适合部署无状态的应用服务,用来管理 pod 和 replica set,具有上线部署、副本设定、滚动更新、回滚等功能,还可提供声明式更新,例如只更新一个新的 Image。
2、StatefullSet:适合有状态的服务部署适合部署有状态应用。
3、DaemonSet:一次部署,所有的 node 节点都会部署,例如一些典型的应用场景:运行集群存储 daemon,例如在每个 Node 上运行 glusterd、ceph
在每个 Node 上运行日志收集 daemon,例如 fluentd、 logstash
在每个 Node 上运行监控 daemon,例如 Prometheus Node Exporter
在每一个 Node 上运行一个 Pod
新加入的 Node 也同样会自动运行一个 Pod
应用场景:监控,分布式存储,日志收集等
4、Job:一次性的执行任务
一次性执行任务,类似 Linux 中的 job
应用场景:如离线数据处理,视频解码等业务
5、Cronjob:周期性的执行任务
周期性任务,像 Linux 的 Crontab 一样
应用场景:如通知,备份等
使用 cronjob 要慎重,用完之后要删掉,不然会占用很多资源
Replicaset控制器
什么是 ReplicaSet?
什么是ReplicaSet
deployment控制器
什么是 Deployment?
deployment怎么扩容或缩容?
如何进行应用程序的水平扩展?
滚动更新
如何在Kubernetes 中进行滚动更新(Rolling Update)?
如何控制滚动更新过程
答:可以通过下面的命令查看到更新时可以控制的参数:
[root@master yaml]# kubectl explain deploy.spec.strategy.rollingUpdate
maxSurge: 此参数控制滚动更新过程,副本总数超过预期pod数量的上限。可以是百分比,也可以是具体的值。默认为1。 (上述参数的作用就是在更新过程中,值若为3,那么不管三七二一,先运行三个pod,用于替换旧的pod,以此类推)
maxUnavailable: 此参数控制滚动更新过程中,不可用的Pod的数量。 (这个值和上面的值没有任何关系,举个例子:我有十个pod,但是在更新的过程中,我允许这十个pod中最多有三个不可用,那么就将这个参数的值设置为3,在更新的过程中,只要不可用的pod数量小于或等于3,那么更新过程就不会停止)。
如何在Kubernetes 中进行滚动回滚(Rollback)?
sts控制器
什么是 Headless(无头) Service?
kubelet
简述 Kubernetes kubelet 的作用
答:
在 Kubernetes 集群中,在每个 Node(又称 Worker)上都会启动一个 kubelet服务进程。
该进程用于处理 Master 下发到本节点的任务,管理 Pod 及 Pod 中的容器。
每个 kubelet 进程都会在 API Server 上注册节点自身的信息,定期向 Master 汇报节点资源的使用情况,并通过 cAdvisor监控容器和节点资源。
简述 Kubernetes kubelet 监控 Worker 节点资源是使用什么组件来实现的
答:kubelet 使用 cAdvisor对 worker 节点资源进行监控。在 Kubernetes 系统中,cAdvisor 已被默认集成到 kubelet 组件内,当 kubelet 服务启动时,它会自动启动cAdvisor 服务,然后 cAdvisor 会实时采集所在节点的性能指标及在节点上运行的容器的性能指标。
简述 Kubernetes Metric Service
答:在 Kubernetes 从 1.10 版本后采用 Metrics Server 作为默认的性能数据采集和监控,主要用于提供核心指标(Core Metrics),包括 Node、Pod 的 CPU 和内存使用指标。对其他自定义指标(Custom Metrics)的监控则由 Prometheus 等组件来完成。
简述 Kubernetes 中什么是 Minikube、Kubectl、Kubelet
答: Minikube是一种可以在本地轻松运行一个单节点 Kubernetes 群集的工具。 Kubectl 是一个命令行工具,可以使用该工具控制 Kubernetes 集群管理器,如检查群集资源,创建、删除和更新组件,查看应用程序。 Kubelet 是一个代理服务,它在每个节点上运行,并使从服务器与主服务器通信。
pod
Pod:是k8s集群里面最小的单位。每个pod里边可以运行一个或多个container(容器),如果一个pod中有两个container,==那么container的USR(用户)、MNT(挂载点)、PID(进程号)是相互隔离的,UTS(主机名和域名)、IPC(消息队列)、NET(网络栈)是相互共享的。==我比较喜欢把pod来当做豌豆夹,而豌豆就是pod中的container;
POD是什么?
什么是静态POD?
删除一个Pod会发生什么事情
在 Kubernetes (k8s) 中删除一个 Pod 时,以下是通常会发生的事情:
发送删除请求: 当你通过
kubectl delete pod <pod-name>
命令发起一个删除请求时,这个请求会被发送到 Kubernetes API server。API server 更新状态: API server 接收到删除请求后,会更新 etcd 中对应 Pod 的状态,标记它为“Terminating”状态。
Pod 进入终止流程: 一旦 Pod 被标记为“Terminating”,Kubernetes 会开始执行停止 Pod 的流程:
- 停止向该 Pod 发送新的请求(如果 Pod 是某个 Service 的一部分的话)。
- 如果 Pod 定义了
preStop
钩子,它会在 Pod 停止前执行。 - 发送 SIGTERM 信号到 Pod 中的每个容器,通知它们即将关闭。容器中的进程可以捕捉该信号,以便执行一些优雅关闭的步骤(如关闭正在运行的服务,完成当前的请求处理等)。
等待优雅终止期: Kubernetes 给予容器一定的时间(默认为 30 秒,可通过
terminationGracePeriodSeconds
配置)来优雅地关闭。这段时间内,容器应当停止接收新的请求并处理完已有的请求。强制终止: 如果容器在优雅终止期内没有成功退出,Kubernetes 会发出 SIGKILL 信号强制终止容器。这个信号无法被阻止或处理,会立即结束容器中的进程。
清理资源: 当 Pod 中的所有容器都已经停止后,Pod 就会从节点上移除。Pod 在 API server 中的记录以及相应的端点(Endpoints)也会被删除,释放占用的资源,如存储卷和网络IP。
控制器响应: 如果该 Pod 是由一个控制器管理的(如 Deployment、ReplicaSet、StatefulSet 等),控制器会注意到一个 Pod 缺失,并根据定义的期望状态来决定是否需要创建一个新的 Pod 来替代被删除的 Pod。
这个流程确保了 Pod 能够被优雅地停止,并且系统资源能够被适当地清理,同时能够保持应用的可用性和服务的不间断。
- 其它版本
K8s中镜像的下载策略是什么
答:可通过命令“kubectl explain pod.spec.containers”来查看imagePullPolicy这行的解释。
在 Kubernetes (k8s) 中,镜像的下载策略是由 Pod 定义中的 imagePullPolicy
属性来指定的。该属性决定了 kubelet 在启动容器时如何拉取镜像。imagePullPolicy
可以有以下几种值:
IfNotPresent
:默认策略,当镜像已经存在于节点上时,kubelet 不会去拉取镜像。如果镜像不存在,那么 kubelet 会从配置的容器镜像库中拉取镜像。Always
:kubelet 总是尝试从容器镜像库中拉取最新的镜像,不管本地是否有缓存的镜像。Never
:kubelet 从不拉取镜像,它假设镜像已经存在于节点上。
镜像的下载策略还可以受到以下因素的影响:
镜像标签:如果你在 Pod 配置中指定了镜像且使用的是
latest
标签,imagePullPolicy
会自动设置为Always
,因为latest
标签的镜像通常意味着用户希望总是能够获取最新的版本。指定
imagePullPolicy
:在 Pod 的容器配置中,你可以显式地设置imagePullPolicy
来覆盖默认行为。缺少标签或者标签不是
latest
:如果你使用的标签既不是latest
也不是具体的版本号(例如,使用了自定义标签),并且没有显式设置imagePullPolicy
,Kubernetes 默认使用IfNotPresent
策略。
这就是 Kubernetes 确定是否应该下载容器镜像的方式。这些策略确保了灵活性和效率,同时尽可能地保证了容器使用的是正确和最新的镜像。
简述 Kubernetes 中 Pod 可能位于的状态?
答:
- Pending:API Server 已经创建该 Pod,且 Pod 内还有一个或多个容器的镜像没有创建,包括正在下载镜像的过程。
- Running:Pod 内所有容器均已创建,且至少有一个容器处于运行状态、正在启动状态或正在重启状态。
- Succeeded:Pod 内所有容器均成功执行退出,且不会重启。
- Failed:Pod 内所有容器均已退出,但至少有一个容器退出为失败状态。
- Unknown:由于某种原因无法获取该 Pod 状态,可能由于网络通信不畅导致。
简述 Kubernetes 中 Pod 的故障重启策略?
可以通过命令“kubectl explain pod.spec”查看pod的重启策略。(restartPolicy字段)
答:Pod 重启策略(RestartPolicy)应用于 Pod 内的所有容器,并且仅在 Pod 所处的 Node 上由 kubelet 进行判断和重启操作。当某个容器异常退出或者健康检查失败时,kubelet 将根据 RestartPolicy 的设置来进行相应操作。
Pod 的重启策略包括 Always、OnFailure 和 Never,默认值为 Always。
- Always:当容器失效时,由 kubelet 自动重启该容器;
- OnFailure:当容器终止运行且退出码不为 0 时,由 kubelet 自动重启该容器;
- Never:不论容器运行状态如何,kubelet 都不会重启该容器。
同时 Pod 的重启策略与控制方式关联,当前可用于管理 Pod 的控制器包括ReplicationController、Job、DaemonSet 及直接管理 kubelet 管理(静态 Pod)。不同控制器的重启策略限制如下:
- RC 和 DaemonSet:必须设置为 Always,需要保证该容器持续运行;
- Job:OnFailure 或 Never,确保容器执行完成后不再重启;
- kubelet:在 Pod 失效时重启,不论将 RestartPolicy 设置为何值,也不会对 Pod进行健康检查。
创建一个pod的流程是什么?
- 客户端提交Pod的配置信息(可以是yaml文件定义好的信息)到kube-apiserver;
- Apiserver收到指令后,通知给controller-manager创建一个资源对象;
- Controller-manager通过api-server将pod的配置信息存储到ETCD数据中心中;
- Kube-scheduler检测到pod信息会开始调度预选,会先过滤掉不符合Pod资源配置要求的节点,然后开始调度调优,主要是挑选出更适合运行pod的节点,然后将pod的资源配置单发送到node节点上的kubelet组件上。
- Kubelet根据scheduler发来的资源配置单运行pod,运行成功后,将pod的运行信息返回给scheduler,scheduler将返回的pod运行状况的信息存储到etcd数据中心。
k8s中创建 pod的过程或流程是怎么样的?
pod的生命周期阶段?
简述 Kubernetes 中什么是静态 Pod?
答:静态 pod 是由 kubelet 进行管理的仅存在于特定 Node 的 Pod 上,他们不能通过 API Server 进行管理,无法与 ReplicationController、Deployment 或者DaemonSet 进行关联,并且 kubelet 无法对他们进行健康检查。静态 Pod 总是由kubelet 进行创建,并且总是在 kubelet 所在的 Node 上运行。
什么是 Google 容器引擎?
答:Google Container Engine(GKE)是 Docker 容器和集群的开源管理平台。这个基于Kubernetes 的引擎仅支持在 Google 的公共云服务中运行的群集。
Pod 启动失败如何解决以及常见的原因有哪些
答: 1、一般查看系统资源是否满足,然后就是查看 pod 日志看看原因 2、describe 通过这个参数查看 pod 失败的原因 3、还有就是看组件日志,apiserver 等组件日志,有没有异常 4、访问不到看看网络插件状态和日志,还有就是 dns状态和日志
健康检查
描述一下pod的生命周期有哪些状态?
- Pending:表示pod已经被同意创建,正在等待kube-scheduler选择合适的节点创建,一般是在准备镜像;
- Running:表示pod中所有的容器已经被创建,并且至少有一个容器正在运行或者是正在启动或者是正在重启;
- Succeeded:表示所有容器已经成功终止,并且不会再启动;
- Failed:表示pod中所有容器都是非0(不正常)状态退出;
- Unknown:表示无法读取Pod状态,通常是kube-controller-manager无法与Pod通信。
请你说一下kubernetes针对pod资源对象的健康监测机制?
答:K8s中对于pod资源对象的健康状态检测,提供了三类probe(探针)来执行对pod的健康监测:
==1) livenessProbe探针==可以根据用户自定义规则来判定pod是否健康,如果livenessProbe探针探测到容器不健康,则kubelet会根据其重启策略来决定是否重启,如果一个容器不包含livenessProbe探针,则kubelet会认为容器的livenessProbe探针的返回值永远成功。
==2) ReadinessProbe探针==同样是可以根据用户自定义规则来判断pod是否健康,如果探测失败,控制器会将此pod从对应service的endpoint列表中移除,从此不再将任何请求调度到此Pod上,直到下次探测成功。
==3) startupProbe探针==启动检查机制,应用一些启动缓慢的业务,避免业务长时间启动而被上面两类探针kill掉,这个问题也可以换另一种方式解决,就是定义上面两类探针机制时,初始化时间定义的长一些即可。
每种探测方法能支持以下几个相同的检查参数,用于设置控制检查时间:
initialDelaySeconds:初始第一次探测间隔,用于应用启动的时间,防止应用还没启动而健康检查失败periodSeconds:检查间隔,多久执行probe检查,默认为10s;timeoutSeconds:检查超时时长,探测应用timeout后为失败;successThreshold:成功探测阈值,表示探测多少次为健康正常,默认探测1次。
上面两种探针都支持以下三种探测方法:
1)Exec:通过执行命令的方式来检查服务是否正常,比如使用cat命令查看pod中的某个重要配置文件 是否存在,若存在,则表示pod健康。反之异常。 Exec探测方式的yaml文件语法如下:
spec:containers:- name:livenessimage:k8s.gcr.io/busyboxargs:- /bin/sh- -c- touch /tmp/healthy;sleep 30;rm -rf /tmp/healthy;sleep 600livenessProbe:#选择livenessProbe的探测机制exec:#执行以下命令command:- cat- /tmp/healthyinitialDelaySeconds:5#在容器运行五秒后开始探测periodSeconds:5#每次探测的时间间隔为5秒
在上面的配置文件中,探测机制为在容器运行5秒后,每隔五秒探测一次,如果cat命令返回的值为“0”,则表示健康,如果为非0,则表示异常。
2)Httpget:通过发送http/htps请求检查服务是否正常,返回的状态码为200-399则表示容器健康(注http get类似于命令curl -I)。
Httpget探测方式的yaml文件语法如下:
spec:containers:- name:livenessimage:k8s.gcr.io/livenesslivenessProbe:#采用livenessProbe机制探测httpGet:#采用httpget的方式scheme:HTTP#指定协议,也支持httpspath:/healthz#检测是否可以访问到网页根目录下的healthz网页文件port:8080#监听端口是8080initialDelaySeconds:3#容器运行3秒后开始探测periodSeconds:3#探测频率为3秒
上述配置文件中,探测方式为项容器发送HTTP GET请求,请求的是8080端口下的healthz文件,返回任何大于或等于200且小于400的状态码表示成功。任何其他代码表示异常。
3)tcpSocket: 通过容器的IP和Port执行TCP检查,如果能够建立TCP连接,则表明容器健康,这种方式与HTTPget的探测机制有些类似,tcpsocket健康检查适用于TCP业务。 tcpSocket探测方式的yaml文件语法如下:
spec:containers:- name:goproxyimage:k8s.gcr.io/goproxy:0.1ports:- containerPort:8080#这里两种探测机制都用上了,都是为了和容器的8080端口建立TCP连接readinessProbe:tcpSocket:port:8080initialDelaySeconds:5periodSeconds:10livenessProbe:tcpSocket:port:8080initialDelaySeconds:15periodSeconds:20
在上述的yaml配置文件中,两类探针都使用了,在容器启动5秒后,kubelet将发送第一个readinessProbe探针,这将连接容器的8080端口,如果探测成功,则该pod为健康,十秒后,kubelet将进行第二次连接。
除了readinessProbe探针外,在容器启动15秒后,kubelet将发送第一个livenessProbe探针,仍然尝试连接容器的8080端口,如果连接失败,则重启容器。
探针探测的结果无外乎以下三者之一:
Success:Container通过了检查;
Failure:Container没有通过检查;
Unknown:没有执行检查,因此不采取任何措施(通常是我们没有定义探针检测,默认为成功)。
若觉得上面还不够透彻,可以移步其官网文档:
在基于集合的选择器中,使用“In”或者“Notin”操作时,其values可以为空,但是如果为空,这个标签选择器,就没有任何意义了。
两种标签选择器类型(基于等值、基于集合的书写方法):
- 其它
常用的标签分类有哪些?
标签分类是可以自定义的,但是为了能使他人可以达到一目了然的效果,一般会使用以下一些分类:
- 版本类标签(release):stable(稳定版)、canary(金丝雀版本,可以将其称之为测试版中的测试版)、beta(测试版);
- 环境类标签(environment):dev(开发)、qa(测试)、production(生产)、op(运维);
- 应用类(app):ui、as、pc、sc;
- 架构类(tier):frontend(前端)、backend(后端)、cache(缓存);
- 分区标签(partition):customerA(客户A)、customerB(客户B);
- 品控级别(Track):daily(每天)、weekly(每周)。
有几种查看标签的方式?
答:常用的有以下三种查看方式:
[root@master ~]# kubectl get pod --show-labels #查看pod,并且显示标签内容[root@master ~]# kubectl get pod -L env,tier #显示资源对象标签的值[root@master ~]# kubectl get pod -l env,tier #只显示符合键值资源对象的pod,而“-L”是显示所有的pod
添加、修改、删除标签的命令?
#对pod标签的操作[root@master ~]# kubectl label pod label-pod abc=123#给名为label-pod的pod添加标签[root@master ~]# kubectl label pod label-pod abc=456--overwrite#修改名为label-pod的标签[root@master ~]# kubectl label pod label-pod abc- #删除名为label-pod的标签[root@master ~]# kubectl get pod --show-labels#对node节点的标签操作[root@master ~]# kubectl label nodes node01 disk=ssd#给节点node01添加disk标签[root@master ~]# kubectl label nodes node01 disk=sss–overwrite#修改节点node01的标签[root@master ~]# kubectl label nodes node01 disk- #删除节点node01的disk标签
简述 K8s 中 label 的几种应用场景。
答: 一些 Pod 有 Label(enter image description here)。一个 Label 是 attach 到 Pod 的一对键/值对,用来传递用户定义的属性。
比如,你可能创建了一个"tier"和“app”标签,通过 Label(tier=frontend,app=myapp)来标记前端 Pod 容器,使用 Label(tier=backend,app=myapp)标记后台 Pod。
然后可以使用 Selectors 选择带有特定 Label 的 Pod,并且将 Service 或者 ReplicationController 应用到上面。
简述 Kubernetes Service 类型?
答:通过创建 Service,可以为一组具有相同功能的容器应用提供一个统一的入口地址,并且将请求负载分发到后端的各个容器应用上。其主要类型有:
- ClusterIP:虚拟的服务 IP 地址,该地址用于 Kubernetes 集群内部的 Pod 访问,在 Node 上 kube-proxy 通过设置的 iptables 规则进行转发;
- NodePort:使用宿主机的端口,使能够访问各 Node 的外部客户端通过 Node的 IP 地址和端口号就能访问服务;
- LoadBalancer:使用外接负载均衡器完成到服务的负载分发,需要在spec.status.loadBalancer 字段指定外部负载均衡器的 IP 地址,通常用于公有云。
service的4种类型?
ExternalName类型的 Service的概念深入理解?
简述 Kubernetes Service 分发后端的策略?
答:Service 负载分发的策略有:RoundRobin 和 SessionAffinity
- RoundRobin:默认为轮询模式,即轮询将请求转发到后端的各个 Pod 上。
- SessionAffinity:基于客户端 IP 地址进行会话保持的模式,即第 1 次将某个客户端发起的请求转发到后端的某个 Pod 上,之后从相同的客户端发起的请求都将被转发到后端相同的 Pod 上。
简述 Kubernetes Headless Service?
答:Headless Service 类似于“普通”服务,但没有群集 IP。此服务使您可以直接访问 pod,而无需通过代理访问它。
答:在某些应用场景中,若需要人为指定负载均衡器,不使用 Service 提供的默认负载均衡的功能,或者应用程序希望知道属于同组服务的其他实例。Kubernetes 提供了Headless Service 来实现这种功能,即不为 Service 设置 ClusterIP(入口 IP 地址),仅通过 Label Selector 将后端的 Pod 列表返回给调用的客户端。
service 两种代理模式?
service的域名解析格式?
service、endpoint、kube-proxy三种的关系是什么?
怎样在Kubernetes中进行服务发现?
资源对象
简述 Kubernetes 外部如何访问集群内的服务?
答:对于 Kubernetes,集群外的客户端默认情况,无法通过 Pod 的 IP 地址或者Service 的虚拟 IP 地址:虚拟端口号进行访问。通常可以通过以下方式进行访问Kubernetes 集群内的服务:
- 映射 Pod 到物理机:将 Pod 端口号映射到宿主机,即在 Pod 中采用 hostPort 方式,以使客户端应用能够通过物理机访问容器应用。
- 映射 Service 到物理机:将 Service 端口号映射到宿主机,即在 Service 中采用nodePort方式,以使客户端应用能够通过物理机访问容器应用。
- 映射 Sercie 到 LoadBalancer:通过设置 LoadBalancer 映射到云服务商提供的LoadBalancer 地址。这种用法仅用于在公有云服务提供商的云平台上设置Service 的场景。
简述 Kubernetes ingress?
答:Kubernetes 的 Ingress 资源对象,用于将不同 URL 的访问请求转发到后端不同的 Service,以实现 HTTP 层的业务路由机制。
Kubernetes 使用了 Ingress 策略和 Ingress Controller,两者结合并实现了一个完整的 Ingress 负载均衡器。使用 Ingress 进行负载分发时,Ingress Controller 基于Ingress 规则将客户端请求直接转发到 Service 对应的后端 Endpoint(Pod)上,从而跳过 kube-proxy 的转发功能,kube-proxy 不再起作用,全过程为:ingress controller + ingress 规则 ---->services
。同时当 Ingress Controller 提供的是对外服务,则实际上实现的是边缘路由器的功能。
什么是命名空间(Namespace)
什么是 Kubernetes 的事件(Event)?
滚动更新
简述 Kubernetes deployment 升级过程?
答:
- 初始创建 Deployment 时,系统创建了一个 ReplicaSet,并按用户的需求创建了对应数量的 Pod 副本。
- 当更新 Deployment 时,系统创建了一个新的 ReplicaSet,并将其副本数量扩展到 1,然后将旧 ReplicaSet 缩减为 2。
- 之后,系统继续按照相同的更新策略对新旧两个 ReplicaSet 进行逐个调整。
- 最后,新的 ReplicaSet 运行了对应个新版本 Pod 副本,旧的 ReplicaSet 副本数量则缩减为 0。
简述 Kubernetes deployment 升级策略?
答: 在 Deployment 的定义中,可以通过 spec.strategy 指定 Pod 更新的策略,目前支持两种策略:Recreate(重建)和 RollingUpdate(滚动更新),默认值为RollingUpdate。
- Recreate:设置 spec.strategy.type=Recreate,表示 Deployment 在更新 Pod时,会先杀掉所有正在运行的 Pod,然后创建新的 Pod。
- RollingUpdate:设置 spec.strategy.type=RollingUpdate,表示 Deployment会以滚动更新的方式来逐个更新 Pod。同时,可以通过设置spec.strategy.rollingUpdate 下的两个参数(maxUnavailable 和 maxSurge)来控制滚动更新的过程。
网络
什么是k8s 的网络模型?
k8s 提供了哪几种对外暴露访问方式?
简述 ingress-controller 的工作机制。
诞生
通常情况下,service 和 pod 的 IP 仅可在集群内部访问
k8s 提供了 service 方式:NodePort 来提供对外的服务,外部的服务可以通过访问 Node节点 ip+NodePort 端口来访问集群内部的资源,外部的请求先到达 service 所选中的节点上,然后负载均衡到每一个节点上.
NodePort 虽然提供了对外的方式但也有很大弊端:
由于 service 的实现方式:user_space 、iptebles、 3 ipvs、方式这三种方式只支持在 4 层协议通信,不支持 7 层协议,因此 NodePort 不能代理 https 服务
NodePort 需要暴露 service 所属每个 node 节点上端口,当需求越来越多,端口数量过多,导致维护成本过高,并且集群不好管理。
原理
Ingress 也是 Kubernetes API 的标准资源类型之一,它其实就是一组基于 DNS 名称(host)或 URL 路径把请求转发到指定的 Service 资源的规则。用于将集群外部的请求流量转发到集群内部完成的服务发布。我们需要明白的是,Ingress 资源自身不能进行“流量穿透”,仅仅是一组规则的集合,这些集合规则还需要其他功能的辅助,比如监听某套接字,然后根据这些规则的匹配进行路由转发,这些能够为 Ingress 资源监听套接字并将流量转发的组件就是 Ingress Controller。
Ingress 控制器不同于 Deployment 等 pod 控制器的是,Ingress 控制器不直接运行为kube-controller-manager 的一部分,它仅仅是 Kubernetes 集群的一个附件,类似于CoreDNS,需要在集群上单独部署。
ingress controller 通过监视 api server 获取相关 ingress、service、endpoint、secret、node、configmap 对象,并在程序内部不断循环监视相关 service 是否有新的 endpoints 变化,一旦发生变化则自动更新 nginx.conf 模板配置并产生新的配置文件进行 reload。
k8s是怎么进行服务注册的?
答:Pod启动后会加载当前环境所有Service信息,以便不同Pod根据Service名进行通信。
k8s集群外流量怎么访问Pod?
答:可以通过Service的NodePort方式访问,会在所有节点监听同一个端口,比如:30000,访问节点的流量会被重定向到对应的Service上面。
kube-proxy
Kubelet 与 kubeproxy 作用。Kubeproxy 的三种代理模式和各自的原理以及它们的区别。
答: kubelet kubelet 进程用于处理 master 下发的任务,管理 pod 中的容器,注册 自身所在的节点.
kube-proxy 运行机制解析 kube-proxy 本质上,类似一个反向代理. 我们可以把每个节点上运行的 kube-proxy 看作service 的透明代理兼 LB.
Service 是 k8s 中资源的一种,也是 k8s 能够实现减少运维工作量,甚至免运维的关键点,我们公司的运维都要把服务搭在我们集群里,接触过的人应该都能体会到其方便之处。 Service 能将 pod 的变化屏蔽在集群内部,同时提供负载均衡的能力,自动将请求流量分布到后端的 pod,这一功能的实现靠的就是 kube-proxy 的流量代理,一共有三种模式,userspace、iptables 以及 ipvs。
1、userspace为每个 service 在 node 上打开一个随机端口(代理端口)建立 iptables 规则,将 clusterip 的请求重定向到代理端口到达代理端口(用户空间)的请求再由 kubeproxy 转发到后端 pod。这里为什么需要建 iptables 规则,因为 kube-proxy 监听的端口在用户空间,所以需要一层 iptables 把访问服务的连接重定向给 kube-proxy 服务,这里就存在内核态到用户态的切换,代价很大,因此就有了 iptables。
2、iptableskube-proxy 不再负责转发,数据包的走向完全由 iptables 规则决定,这样的过程不存在内核态到用户态的切换,效率明显会高很多。但是随着 service 的增加,iptables 规则会不断增加,导致内核十分繁忙(等于在读一张很大的没建索引的表)。
3、ipvs
用 ipset 存储 iptables 规则,这样规则的数量就能够得到有效控制,而在查找时就类似hash 表的查找。
Iptables 四个表五个链。
答:
raw 表:确定是否对该数据包进行状态跟踪
mangle 表:为数据包设置标记
nat 表:修改数据包中的源、目标 IP 地址或端口
filter 表:确定是否放行该数据包(过滤)
INPUT:处理入站数据包
OUTPUT:处理出站数据包
FORWARD:处理转发数据包
POSTROUTING 链:在进行路由选择后处理数据包
PREROUTING 链:在进行路由选择前处理数据包
简述 kube-proxy 的三种工作模式和原理。
答:
1、userspace 模式
该模式下 kube-proxy 会为每一个 Service 创建一个监听端口。发向 Cluster IP 的请求被Iptables 规则重定向到 Kube-proxy 监听的端口上,Kube-proxy 根据 LB 算法选择一个提供服务的 Pod 并和其建立链接,以将请求转发到 Pod 上。该模式下,Kube-proxy 充当了一个四层 Load balancer 的角色。由于 kube-proxy 运行在userspace 中,在进行转发处理时会增加两次内核和用户空间之间的数据拷贝,效率较另外两种模式低一些;好处是当后端的 Pod 不可用时,kube-proxy 可以重试其他 Pod。
2、iptables 模式
为了避免增加内核和用户空间的数据拷贝操作,提高转发效率,Kube-proxy 提供了iptables 模式。在该模式下,Kube-proxy 为 service 后端的每个 Pod 创建对应的 iptables规则,直接将发向 Cluster IP 的请求重定向到一个 Pod IP。该模式下 Kube-proxy 不承担四层代理的角色,只负责创建 iptables 规则。该模式的优点是较 userspace 模式效率更高,但不能提供灵活的 LB 策略,当后端 Pod 不可用时也无法进行重试。
3、ipvs模式
该模式和 iptables 类似,kube-proxy 监控 Pod 的变化并创建相应的 ipvs rules。ipvs 也是在 kernel 模式下通过 netfilter实现的,但采用了 hash table来存储规则,因此在规则较多的情况下,Ipvs 相对 iptables 转发效率更高。除此以外,ipvs 支持更多的 LB 算法。如果要设置 kube-proxy 为 ipvs 模式,必须在操作系统中安装 IPVS 内核模块。
简述 Kubernetes 网络模型?
答:Kubernetes 网络模型中每个 Pod 都拥有一个独立的 IP 地址,并假定所有 Pod都在一个可以直接连通的、扁平的网络空间中。所以不管它们是否运行在同一个Node(宿主机)中,都要求它们可以直接通过对方的 IP 进行访问。设计这个原则的原因是,用户不需要额外考虑如何建立 Pod 之间的连接,也不需要考虑如何将容器端口映射到主机端口等问题。同时为每个 Pod 都设置一个 IP 地址的模型使得同一个 Pod 内的不同容器会共享同一个网络命名空间,也就是同一个 Linux 网络协议栈。这就意味着同一个 Pod 内的容器可以通过 localhost 来连接对方的端口。在 Kubernetes 的集群里,IP 是以 Pod 为单位进行分配的。一个 Pod 内部的所有容器共享一个网络堆栈(相当于一个网络命名空间,它们的 IP 地址、网络设备、配置等都是共享的)。
简述 Kubernetes CNI 模型?
答:CNI 提供了一种应用容器的插件化网络解决方案,定义对容器网络进行操作和配置的规范,通过插件的形式对 CNI 接口进行实现。CNI 仅关注在创建容器时分配网络资源,和在销毁容器时删除网络资源。在 CNI 模型中只涉及两个概念:容器和网络。
- 容器(Container):是拥有独立 Linux 网络命名空间的环境,例如使用 Docker或 rkt 创建的容器。容器需要拥有自己的 Linux 网络命名空间,这是加入网络的必要条件。
- 网络(Network):表示可以互连的一组实体,这些实体拥有各自独立、唯一的IP 地址,可以是容器、物理机或者其他网络设备(比如路由器)等。
对容器网络的设置和操作都通过插件(Plugin)进行具体实现,CNI 插件包括两种类型:CNI Plugin和 IPAM(IP Address Management)Plugin。CNI Plugin 负责为容器配置网络资源,IPAM Plugin 负责对容器的 IP 地址进行分配和管理。IPAMPlugin 作为 CNI Plugin 的一部分,与 CNI Plugin 协同工作。
简述 Kubernetes 初始化容器(init container)?
答:init container 的运行方式与应用容器不同,它们必须先于应用容器执行完成,当设置了多个 init container 时,将按顺序逐个运行,并且只有前一个 init container 运行成功后才能运行后一个 init container。当所有 init container 都成功运行后,Kubernetes 才会初始化 Pod 的各种信息,并开始创建和运行应用容器。
简述 Kubernetes 网络策略?
答:为实现细粒度的容器间网络访问隔离策略,Kubernetes 引入 Network Policy。Network Policy 的主要功能是对 Pod 间的网络通信进行限制和准入控制,设置允许访问或禁止访问的客户端 Pod 列表。Network Policy 定义网络策略,配合策略控制器(Policy Controller)进行策略的实现。
简述 Kubernetes 网络策略原理?
答:Network Policy 的工作原理主要为:policy controller 需要实现一个 API Listener,监听用户设置的 Network Policy 定义,并将网络访问规则通过各 Node 的Agent 进行实际设置(Agent 则需要通过 CNI 网络插件实现)
简述 Kubernetes 中 flannel 的作用?
答:Flannel 可以用于 Kubernetes 底层网络的实现,主要作用有:
- 它能协助 Kubernetes,给每一个 Node 上的 Docker 容器都分配互相不冲突的IP 地址。
- 它能在这些 IP 地址之间建立一个覆盖网络(Overlay Network),通过这个覆盖网络,将数据包原封不动地传递到目标容器内。
简述 Kubernetes Calico 网络组件实现原理?
答: Calico 是一个基于 BGP 的纯三层的网络方案,与 OpenStack、Kubernetes、AWS、GCE 等云平台都能够良好地集成。
Calico 在每个计算节点都利用 Linux Kernel 实现了一个高效的 vRouter 来负责数据转发。每个 vRouter 都通过 BGP 协议把在本节点上运行的容器的路由信息向整个Calico 网络广播,并自动设置到达其他节点的路由转发规则。 Calico 保证所有容器之间的数据流量都是通过 IP 路由的方式完成互联互通的。Calico节点组网时可以直接利用数据中心的网络结构(L2 或者 L3),不需要额外的 NAT、隧道或者 Overlay Network,没有额外的封包解包,能够节约 CPU 运算,提高网络效率。
简述你知道的几种 CNI 网络插件,并详述其工作原理。K8s 常用的 CNI 网络插件(calico &&flannel),简述一下它们的工作原理和区别。
答:
==1、Calico==
calico 根据 iptables 规则进行路由转发,并没有进行封包,解包的过程,这和 flannel比起来效率就会快多。
calico 包括如下重要组件:Felix,etcd,BGP Client,BGP Route Reflector。下面分别说明一下这些组件。
- Felix:主要负责路由配置以及 ACLS 规则的配置以及下发,它存在在每个 node 节点上。
- etcd:分布式键值存储,主要负责网络元数据一致性,确保 Calico 网络状态的准确性,可以与 kubernetes 共用;
- BGPClient(BIRD),主要负责把 Felix 写入 kernel 的路由信息分发到当前 Calico 网络,确保 workload 间的通信的有效性;
- BGPRoute Reflector(BIRD),大规模部署时使用,摒弃所有节点互联的 mesh 模式,通过一个或者多个 BGPRoute Reflector 来完成集中式的路由分发
通过将整个互联网的可扩展 IP 网络原则压缩到数据中心级别,Calico 在每一个计算节点利用 Linuxkernel 实现了一个高效的 vRouter 来负责数据转发,而每个 vRouter 通过BGP 协议负责把自己上运行的 workload 的路由信息向整个 Calico 网络内传播,小规模部署可以直接互联,大规模下可通过指定的 BGProute reflector 来完成。这样保证最终所有的 workload 之间的数据流量都是通过 IP 包的方式完成互联的。
==2、Flannel==
Flannel 实质上是一种“覆盖网络(overlay network)”,也就是将 TCP 数据包装在另一种网络包里面进行路由转发和通信,目前已经支持 UDP、VxLAN、AWS VPC 和 GCE 路由等数据转发方式。
默认的节点间数据通信方式是 UDP 转发。
工作原理:数据从源容器中发出后,经由所在主机的 docker0 虚拟网卡转发到 flannel0 虚拟网卡(先可以不经过 docker0 网卡,使用 cni 模式),这是个 P2P 的虚拟网卡,flanneld 服务监听在网卡的另外一端。
Flannel 通过 Etcd 服务维护了一张节点间的路由表,详细记录了各节点子网网段 。
源主机的 flanneld 服务将原本的数据内容 UDP 封装后根据自己的路由表投递给目的节点的 flanneld 服务,数据到达以后被解包,然后直接进入目的节点的 flannel0 虚拟网卡,然后被转发到目的主机的 docker0 虚拟网卡,最后就像本机容器通信一下的有 docker0路由到达目标容器。
flannel 在进行路由转发的基础上进行了封包解包的操作,这样浪费了 CPU 的计算资源。
K8s 每个 Pod 中有一个特殊的 Pause 容器,能否去除,简述原因。
答:
pause container 作为 pod 里其他所有 container 的 parent container,主要有两个职责:
- 是 pod 里其他容器共享 Linux namespace 的基础
- 扮演 PID 1 的角色,负责处理僵尸进程
在 Linux 里,当父进程 fork 一个新进程时,子进程会从父进程继承 namespace。目前 Linux 实现了六种类型的 namespace,每一个 namespace 是包装了一些全局系统资源的抽象集合,这一抽象集合使得在进程的命名空间中可以看到全局系统资源。命名空间的一个总体目标是支持轻量级虚拟化工具 container 的实现,container 机制本身对外提供一组进程,这组进程自己会认为它们就是系统唯一存在的进程。在 Linux 里,父进程 fork 的子进程会继承父进程的命名空间。与这种行为相反的一个系统命令就是 unshare:。
k8s中网络通信类型有几种?
k8s 中网络插件有哪些?各自特点是什么?
同一/不同节点上的Pod通信?
跨主机之间的多个pod之间通信示意图?
k8s 中同一个命名空间下服务间是怎么调用的?
k8s中不同命名空间下服务是怎么调用的?
在k8s集群内的应用如何访问外部的服务?
调度
简述 k8s 的调度机制。
答:
1、Scheduler 工作原理:
请求及 Scheduler 调度步骤:
节点预选(Predicate):排除完全不满足条件的节点,如内存大小,端口等条件不满足。
节点优先级排序(Priority):根据优先级选出最佳节点
节点择优(Select):根据优先级选定节点
2、具体步骤:
首先用户通过 Kubernetes 客户端 Kubectl 提交创建 Pod 的 Yaml 的文件,向Kubernetes 系统发起资源请求,该资源请求被提交到
Kubernetes 系统中,用户通过命令行工具 Kubectl 向 Kubernetes 集群即 APIServer 用的方式发送“POST”请求,即创建 Pod 的请求。APIServer 接收到请求后把创建 Pod 的信息存储到 Etcd 中,从集群运行那一刻起,资源调度系统 Scheduler 就会定时去监控 APIServer。
通过 APIServer 得到创建 Pod 的信息,Scheduler 采用 watch 机制,一旦 Etcd 存储Pod 信息成功便会立即通知 APIServer,APIServer 会立即把 Pod 创建的消息通知 Scheduler,Scheduler 发现 Pod 的属性中 DestNode 为空时(Dest Node=””)便会立即触发调度流程进行调度。
而这一个创建 Pod 对象,在调度的过程当中有 3 个阶段:节点预选、节点优选、节点选定,从而筛选出最佳的节点
节点预选:基于一系列的预选规则对每个节点进行检查,将那些不符合条件的节点过滤,从而完成节点的预选
节点优选:对预选出的节点进行优先级排序,以便选出最合适运行 Pod 对象的节点
节点选定:从优先级排序结果中挑选出优先级最高的节点运行 Pod,当这类节点多于 1个时,则进行随机选择
3、k8s 的调用工作方式
Kubernetes 调度器作为集群的大脑,在如何提高集群的资源利用率、保证集群中服务的稳定运行中也会变得越来越重要
Kubernetes 的资源分为两种属性。
- 可压缩资源(例如 CPU 循环,Disk I/O 带宽)都是可以被限制和被回收的,对于一个Pod 来说可以降低这些资源的使用量而不去杀掉 Pod。
- 不可压缩资源(例如内存、硬盘空间)一般来说不杀掉 Pod 就没法回收。未来 Kubernetes会加入更多资源,如网络带宽,存储 IOPS 的支持。
简述 Kubernetes Scheduler 作用及实现原理?
答:Kubernetes Scheduler 是负责 Pod 调度的重要功能模块,Kubernetes Scheduler 在整个系统中承担了“承上启下”的重要功能,“承上”是指它负责接收Controller Manager 创建的新 Pod,为其调度至目标 Node;“启下”是指调度完成后,目标 Node 上的 kubelet 服务进程接管后继工作,负责 Pod 接下来生命周期。
Kubernetes Scheduler 的作用是将待调度的 Pod(API 新创建的 Pod、Controller Manager 为补足副本而创建的 Pod 等)按照特定的调度算法和调度策略绑定(Binding)到集群中某个合适的 Node 上,并将绑定信息写入 etcd 中。在整个调度过程中涉及三个对象,分别是待调度 Pod 列表、可用 Node 列表,以及调度算法和策略。
Kubernetes Scheduler 通过调度算法调度为待调度 Pod 列表中的每个 Pod 从 Node列表中选择一个最适合的 Node 来实现 Pod 的调度。随后,目标节点上的 kubelet 通过 API Server 监听到 Kubernetes Scheduler 产生的 Pod 绑定事件,然后获取对应的 Pod 清单,下载 Image 镜像并启动容器。
简述 Kubernetes Scheduler 使用哪两种算法将 Pod 绑定到 worker 节点?
答:Kubernetes Scheduler 根据如下两种调度算法将 Pod 绑定到最合适的工作节点:
预选(Predicates):输入是所有节点,输出是满足预选条件的节点。kubescheduler 根据预选策略过滤掉不满足策略的 Nodes。如果某节点的资源不足或者不满足预选策略的条件则无法通过预选。如“Node 的 label 必须与 Pod 的Selector 一致”。
优选(Priorities):输入是预选阶段筛选出的节点,优选会根据优先策略为通过预选的 Nodes 进行打分排名,选择得分最高的 Node。
例如,资源越富裕、负载越小的 Node 可能具有越高的排名。
简述 Kubernetes Pod 的常见调度方式?
答:Kubernetes 中,Pod 通常是容器的载体,主要有如下常见调度方式:
- Deployment 或 RC:该调度策略主要功能就是自动部署一个容器应用的多份副本,以及持续监控副本的数量,在集群内始终维持用户指定的副本数量。
- NodeSelector:定向调度,当需要手动指定将 Pod 调度到特定 Node 上,可以通过 Node 的标签(Label)和 Pod 的 nodeSelector 属性相匹配。
- NodeAffinity亲和性调度:亲和性调度机制极大的扩展了 Pod 的调度能力,目前有两种节点亲和力表达:
- requiredDuringSchedulingIgnoredDuringExecution:硬规则,必须满足指定的规则,调度器才可以调度 Pod 至 Node 上(类似 nodeSelector,语法不同)。
- preferredDuringSchedulingIgnoredDuringExecution:软规则,优先调度至满足的 Node 的节点,但不强求,多个优先级规则还可以设置权重值。
- Taints 和 Tolerations(污点和容忍):
- Taint:使 Node 拒绝特定 Pod 运行;
- Toleration:为 Pod 的属性,表示 Pod 能容忍(运行)标注了 Taint 的 Node。
节点选择器都有什么?各自的区别是什么?
污点和污点容忍是什么?两者是如何配合使用的?
简述k8s中Pod的常见调度方式?
k8s的几种调度方式?
k8s 中pod的亲和性和反亲和性的概念?如何配置亲和性和反亲和性?
安全
简述 Kubernetes 准入机制
答:在对集群进行请求时,每个准入控制代码都按照一定顺序执行。如果有一个准入控制拒绝了此次请求,那么整个请求的结果将会立即返回,并提示用户相应的 error信息。 准入控制(AdmissionControl)准入控制本质上为一段准入代码,在对 kubernetes api 的请求过程中,顺序为:先经过认证 &授权,然后执行准入操作,最后对目标对象进行操作。常用组件(控制代码)如下:
- AlwaysAdmit:允许所有请求
- AlwaysDeny:禁止所有请求,多用于测试环境。
- ServiceAccount:它将 serviceAccounts 实现了自动化,它会辅助serviceAccount 做一些事情,比如如果 pod 没有 serviceAccount 属性,它会自动添加一个 default,并确保 pod 的 serviceAccount 始终存在。
- LimitRanger:观察所有的请求,确保没有违反已经定义好的约束条件,这些条件定义在 namespace 中 LimitRange 对象中。
- NamespaceExists:观察所有的请求,如果请求尝试创建一个不存在的namespace,则这个请求被拒绝。
使用 Kubernetes 时可以采取的最佳安全措施是什么?
简述 Kubernetes 如何保证集群的安全性?
答:Kubernetes 通过一系列机制来实现集群的安全控制,主要有如下不同的维度:
- 基础设施方面:保证容器与其所在宿主机的隔离;
- 权限方面:
- 最小权限原则:合理限制所有组件的权限,确保组件只执行它被授权的行为,通过限制单个组件的能力来限制它的权限范围。
- 用户权限:划分普通用户和管理员的角色。
- 集群方面:
- API Server 的认证授权:Kubernetes 集群中所有资源的访问和变更都是通过Kubernetes API Server 来实现的,因此需要建议采用更安全的 HTTPS 或Token 来识别和认证客户端身份(Authentication),以及随后访问权限的授权(Authorization)环节。
- API Server 的授权管理:通过授权策略来决定一个 API 调用是否合法。对合法用户进行授权并且随后在用户访问时进行鉴权,建议采用更安全的 RBAC方式来提升集群安全授权。
- 敏感数据引入 Secret 机制:对于集群敏感数据建议使用 Secret 方式进行保护。
- AdmissionControl(准入机制):对 kubernetes api 的请求过程中,顺序为:先经过认证 &授权,然后执行准入操作,最后对目标对象进行操作。
Kubernetes中的RBAC(Role-Based Access Control)是什么?如何配置和管理RBAC?
如何进行安全访问控制(RBAC)?
简述 Kubernetes RBAC 及其特点(优势)?
答:RBAC 是基于角色的访问控制,是一种基于个人用户的角色来管理对计算机或网络资源的访问的方法。相对于其他授权模式,RBAC 具有如下优势:
- 对集群中的资源和非资源权限均有完整的覆盖。
- 整个 RBAC 完全由几个 API 对象完成, 同其他 API 对象一样, 可以用 kubectl或 API 进行操作。
- 可以在运行时进行调整,无须重新启动 API Server。
Kubernetes 中如何管理容器的安全性?可以列举几种最佳实践吗?
简述 Kubernetes Secret 作用?
答:Secret 对象,主要作用是保管私密数据,比如密码、OAuth Tokens、SSH Keys等信息。将这些私密信息放在 Secret 对象中比直接放在 Pod 或 Docker Image 中更安全,也更便于使用和分发。
简述 Kubernetes Secret 有哪些使用方式?
答:创建完 secret 之后,可通过如下三种方式使用:
- 在创建 Pod 时,通过为 Pod 指定 Service Account 来自动使用该 Secret。
- 通过挂载该 Secret 到 Pod 来使用它。
- 在 Docker 镜像下载时使用,通过指定 Pod 的 spc.ImagePullSecrets 来引用它。
k8s中如何安全地传递敏感信息(如密码、密钥等)给容器?
简述 Kubernetes PodSecurityPolicy 机制?
答:Kubernetes PodSecurityPolicy 是为了更精细地控制 Pod 对资源的使用方式以及提升安全策略。在开启 PodSecurityPolicy 准入控制器后,Kubernetes 默认不允许创建任何 Pod,需要创建 PodSecurityPolicy 策略和相应的 RBAC 授权策略(Authorizing Policies),Pod 才能创建成功。
简述 Kubernetes PodSecurityPolicy 机制能实现哪些安全策略?
答:在 PodSecurityPolicy 对象中可以设置不同字段来控制 Pod 运行时的各种安全策略, 常见的有:
- 特权模式:privileged 是否允许 Pod 以特权模式运行。
- 宿主机资源:控制 Pod 对宿主机资源的控制,如 hostPID:是否允许 Pod 共享宿主机的进程空间。
- 用户和组:设置运行容器的用户 ID(范围)或组(范围)。
- 提升权限:AllowPrivilegeEscalation:设置容器内的子进程是否可以提升权限,通常在设置非 root 用户(MustRunAsNonRoot)时进行设置。
- SELinux:进行 SELinux 的相关配置。
k8s 认证方式有哪几种?
k8s 中的证书和私钥种类有哪些?
简述Kubernetes如何保证集群的安全性?
如何在 Kubernetes 中进行配置文件的安全管理?
什么是Kubernetes的安全性措施?
存储
如何进行存储卷(Volume)的使用?
k8s数据持久化的方式有哪些?
答: 1)EmptyDir(空目录):没有指定要挂载宿主机上的某个目录,直接由Pod内保部映射到宿主机上。类似于docker中的managervolume。
主要使用场景: 只需要临时将数据保存在磁盘上,比如在合并/排序算法中; 作为两个容器的共享存储,使得第一个内容管理的容器可以将生成的数据存入其中,同时由同一个webserver容器对外提供这些页面。
emptyDir的特性: 同个pod里面的不同容器,共享同一个持久化目录,当pod节点删除时,volume的数据也会被删除。如果仅仅是容器被销毁,pod还在,则不会影响volume中的数据。 总结来说:emptyDir的数据持久化的生命周期和使用的pod一致。一般是作为临时存储使用。
2)Hostpath: 将宿主机上已存在的目录或文件挂载到容器内部。类似于docker中的bind mount挂载方式。 这种数据持久化方式,运用场景不多,因为它增加了pod与节点之间的耦合。 一般对于k8s集群本身的数据持久化和docker本身的数据持久化会使用这种方式,可以自行参考apiService的yaml文件,位于:/etc/kubernetes/main…目录下。
3)PersistentVolume(简称PV): 基于NFS服务的PV,也可以基于GFS的PV。它的作用是统一数据持久化目录,方便管理。 在一个PV的yaml文件中,可以对其配置PV的大小,指定PV的访问模式: ReadWriteOnce:只能以读写的方式挂载到单个节点; ReadOnlyMany:能以只读的方式挂载到多个节点; ReadWriteMany:能以读写的方式挂载到多个节点。以及指定pv的回收策略: recycle:清除PV的数据,然后自动回收; Retain:需要手动回收; delete:删除云存储资源,云存储专用;
PS:这里的回收策略指的是在PV被删除后,在这个PV下所存储的源文件是否删除)。
若需使用PV,那么还有一个重要的概念:PVC,PVC是向PV申请应用所需的容量大小,K8s集群中可能会有多个PV,PVC和PV若要关联,其定义的访问模式必须一致。定义的storageClassName也必须一致,若群集中存在相同的(名字、访问模式都一致)两个PV,那么PVC会选择向它所需容量接近的PV去申请,或者随机申请。
简述 Kubernetes 共享存储的作用?
答:Kubernetes 对于有状态的容器应用或者对数据需要持久化的应用,因此需要更加可靠的存储来保存应用产生的重要数据,以便容器应用在重建之后仍然可以使用之前的数据。因此需要使用共享存储。
简述 Kubernetes 数据持久化的方式有哪些?
答:Kubernetes 通过数据持久化来持久化保存重要数据,常见的方式有:
EmptyDir(空目录):没有指定要挂载宿主机上的某个目录,直接由 Pod 内保部映射到宿主机上。类似于 docker 中的 manager volume。 场景: 只需要临时将数据保存在磁盘上,比如在合并/排序算法中; 作为两个容器的共享存储。 特性:
同个 pod 里面的不同容器,共享同一个持久化目录,当 pod 节点删除时,volume 的数据也会被删除。 emptyDir 的数据持久化的生命周期和使用的 pod 一致,一般是作为临时存储使用。
Hostpath:将宿主机上已存在的目录或文件挂载到容器内部。类似于 docker 中的 bind mount 挂载方式。 特性:增加了 pod 与节点之间的耦合。
PersistentVolume(简称 PV):如基于 NFS 服务的 PV,也可以基于 GFS 的 PV。 它的作用是统一数据持久化目录,方便管理。
pv/pvc
简述 Kubernetes PV 和 PVC?
答: PV 是对底层网络共享存储的抽象,将共享存储定义为一种“资源”。 PVC 则是用户对存储资源的一个“申请”。
k8s 中 pv 和 pvc 的作用是什么?p 和 pvc 和底层存储的关联顺序是什么?
k8s 中 pv 有几种访问模式?
简述 Kubernetes PV 生命周期内的阶段?
答:某个 PV 在生命周期中可能处于以下 4 个阶段(Phase)之一。
- Available:可用状态,还未与某个 PVC 绑定。
- Bound:已与某个 PVC 绑定。
- Released:绑定的 PVC 已经删除,资源已释放,但没有被集群回收。
- Failed:自动资源回收失败。
简述Kubernetes中pV生命周期内的阶段有哪些?
简述 Kubernetes 所支持的存储供应模式?
答:Kubernetes 支持两种资源的存储供应模式:静态模式(Static)和动态模式(Dynamic)。
- 静态模式:集群管理员手工创建许多 PV,在定义 PV 时需要将后端存储的特性进行设置。
- 动态模式:集群管理员无须手工创建 PV,而是通过 StorageClass 的设置对后端存储进行描述,标记为某种类型。此时要求 PVC 对存储的类型进行声明,系统将自动完成 PV 的创建及与 PVC 的绑定。
简述 Kubernetes CSI 模型?
答:Kubernetes CSI 是 Kubernetes 推出与容器对接的存储接口标准,存储提供方只需要基于标准接口进行存储插件的实现,就能使用 Kubernetes 的原生存储机制为容器提供存储服务。CSI 使得存储提供方的代码能和 Kubernetes 代码彻底解耦,部署也与 Kubernetes 核心组件分离,显然,存储插件的开发由提供方自行维护,就能为Kubernetes 用户提供更多的存储功能,也更加安全可靠。
CSI 包括 CSI Controller 和 CSI Node:
- CSI Controller 的主要功能是提供存储服务视角对存储资源和存储卷进行管理和操作。
- CSI Node 的主要功能是对主机(Node)上的 Volume 进行管理和操作。
维护
简述 Kubernetes 如何进行优雅的节点关机维护
答:由于 Kubernetes 节点运行大量 Pod,因此在进行关机维护之前,建议先使用kubectl drain 将该节点的 Pod 进行驱逐,然后进行关机维护。
Worker 节点宕机,简述 Pods 驱逐流程
答:
1、概述:
在 Kubernetes 集群中,当节点由于某些原因(网络、宕机等)不能正常工作时会被认定为不可用状态(Unknown 或者 False 状态),当时间超过了 pod-eviction-timeout值时,那么节点上的所有 Pod 都会被节点控制器计划删除。
2、Kubernetes 集群中有一个节点生命周期控制器:node_lifecycle_controller.go。它会与每一个节点上的 kubelet 进行通信,以收集各个节点已经节点上容器的相关状态信息。当超出一定时间后不能与 kubelet 通信,那么就会标记该节点为 Unknown 状态。并且节点生命周期控制器会自动创建代表状况的污点,用于防止调度器调度 pod 到该节点。
3、那么 Unknown 状态的节点上已经运行的 pod 会怎么处理呢?节点上的所有 Pod都会被污点管理器(taint_manager.go)计划删除。而在节点被认定为不可用状态到删除节点上的 Pod 之间是有一段时间的,这段时间被称为容忍度。你可以通过下面的方式来配置容忍度的时间长短:
如果在不配置的情况下,Kubernetes 会自动给 Pod 添加一个 key 为node.kubernetes.io/not-ready 的容忍度 并配置 tolerationSeconds=300,同样,Kubernetes会给 Pod 添加一个 key 为 node.kubernetes.io/unreachable 的容忍度 并配置tolerationSeconds=300。
4、当到了删除 Pod 时,污点管理器会创建污点标记事件,然后驱逐 pod 。这里需要注意的是由于已经不能与 kubelet 通信,所以该节点上的 Pod 在管理后台看到的是处于灰色标记,但是此时如果去获取 pod 的状态其实还是处于 Running 状态。每种类型的资源都有相应的资源控制器(Controller),例如:deployment_controller.go、stateful_set_control.go。每种控制器都在监听资源变化,从而做出相应的动作执行。deployment 控制器在监听到 Pod 被驱逐后会创建一个新的 Pod 出来,但是 Statefulset控制器并不会创建出新的 Pod,原因是因为它可能会违反 StatefulSet 固有的至多一个的语义,可能出现具有相同身份的多个成员,这将可能是灾难性的,并且可能导致数据丢失。
监控
什么是容器资源监视?
答:对于用户而言,了解所有不同抽象层的应用程序性能和资源利用率非常重要,Kubernetes 通过在不同级别(例如容器,pod,服务和整个集群)创建抽象,从而对集群的管理进行了分解。现在,可以监视每个级别,这不过是容器资源监视而已。各种容器资源监视工具如下:
k8s 的监控(Prometheus)常用监控组件有哪些?各自的作用是什么?
如何监控 Kubernetes 集群?
什么是Kubernetes的监控和日志记录解决方案?
如何在 Prometheus 中定义监控指标?
如何配置Prometheus 进行目标抓取?
Prometheus 如何处理数据存储和保留策略?
如何设置警报规则并配置Alertmanager?
Prometheus支持哪些查询操作和聚合函数?
什么是Prometheus 的服务发现机制?
Prometheus 的可视化和查询界面是什么?
什么是Prometheus的推模式(Push)和拉模式(Pull)抓取?
如何在Prometheus中配置持久化存储?
Prometheus 是否支持高可用性(HA)部署?
什么是 Prometheus的持续查询?
日志
你所用的到的日志分析工具有哪些以及它们如何与 K8s 集群通讯。
答:
背景:
k8s 上面会跑大量的 pod/容器。 特别是 集群相关的控制面 容器, 业务容器,有时候我们要对容器日志进行 监控与分析处理,这时一套好用的日志系统就格外的重要。
而成熟的日志解决方案有哪些呢? 以前的 ELK , k8s 主推的基于云原生的 EFK,这里的 F 是 CNCF 认证的子项目 fluentd,fluentd 是 ruby 的项目,由于个人体验习惯与 yaml 配置,以及项目特点, 选择了 filebeat,所以 整套日志系统使用的技术包括
(elastic search fidlebeat kibana)。
官方项目地址: