k8s的集群调度
2024-01-08 15:53:52
schedule:负责调度资源,把pod调度到node节点
1、List-watch
k8s集群当中,通过list-watch的机制进行每个组件的协作,保持数据同步,保持数据同步,每个组件之间的解耦
kubectl 配置文件,向APIserver发送命令-----APIserver把命令发送各个组件
kubectl run nginx ---image=nginx:1.22 ---apiserver ---controller manager ----scheduler ---kubelet
创建成功之后 kubectl get pod kubectl describe pod nginx ------->> etcd 的数据库当中
list-watch --会在每一步把监听的消息(APIserver:6443)-----controller manager , scheduler,kubectl,etcd都会监听APIserver:6443端口
2、调度的过程和策略
scheduler是k8s集群的调度器,把pod分配到集群的节点上
以下几个问题
1、公平,每个节点都能够分配资源
2、资源高效利用 集群当中的资源可以被最大化使用
3、效率 调度的性能要好,能够尽快的完成大批量的pod的调度
4、灵活 允许用户根据自己的需求,控制和改变调度的逻辑(扩缩容)
scheduler是一个单独运行的程序,启动之后就会一直监听APIserver,获取报文中的字段 spec nodename
床架pod时,为每个pod创建一个binding,表示该往哪个节点上部署
创建pod 到节点时,有两个策略,先执行预算策略,再执行优先策略,这两步的操作都必须成功,否则立刻返回报错,也就是说,部署的node,必须满足这两个策略
预算策略: predicate 自带一些算法,选择node节点(scheduler自带额度算法策略,不需要人工干预)
1、podfitsresources:pod适应资源,检查节点上的剩余资源是否满足pod请求的资源,主要是cpu和内存
2、podfitshost:pod适应主机,如果pod指定了node的name,nginx1pod----node01 ,检测主机名是都存在,存在要和pod指定的名称匹配,这才能调度过去
3、podselectormatches:pod的选择器匹配,创建pod的时候可以根据node的标签来进行匹配,查找指定的node节点上标签是否存在,存在的标签是否匹配
4、nodiskconflict:无磁盘冲突,确保已挂载的卷与pod的卷不发生冲突 如node1 上 nginx1 pod opt/nginx
nginx2 pod opt/nginx冲突之后会把nginx2挂载node2节点上
如果预算策略都不满足,pod将始终处于pending状态,不断的重试调度,直到有节点满足条件为止
例如
node1 node2 node3
经过预先策略,上述三个节点都满足条件,那该怎么办?---->> 优先策略
优先策略:
1、leastrequestedpriority:最低请求优先级,通过算法计算节点上的cpu和内存使用率,确定节点的权重,使用率越低的节点相应的权重越高,调度时会更倾向于使用率的节点,实现资源合理的利用
2、balanceresourceallocation:平衡资源分配,cpu和内存的使用率,给节点赋予权重,权重算的是cpu和内存使用率接近,权重越高,和上面的leastrequestedpriority最低请求优先级一起使用
例如:
node1 cpu和内存使用率 20:60
node2 cpu和内存使用率 50:50
node2 在被调度时会被优先
3、imagelocalityriority:节点上是否已经有了要部署的镜像,镜像的总数成正比,满足的镜像数越多,权重越好
例如
nginx1.22
node1 无
node2 有
node2 优先级高
以上策略都是scheduler自带的算法
通过预算选择出可以部署的节点,再通过优先选择出来最好的节点,以上都是自带的算法,k8s集群自己来选择
指定节点和标签
指定节点
spec参数设置:
nodeName: node02
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nginx
name: nginx
spec:
replicas: 3
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.22
nodeName: node02
指定了节点,在参数中设置了nodeName,指定了节点的名称,会跳过scheduler的调度策略,这个规则是强制匹配
指定标签
spec参数设置:
nodeSelector:
查看node节点上的标签
kubectl get nodes --show-labels
命令行添加
kubectl label nodes node02 test3=c
如何删除标签
kubectl label nodes node01 test3-
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nginx
name: nginx
spec:
replicas: 3
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
nodeSelector:
test1: a
containers:
- name: nginx
image: nginx:1.22
nodeName: node02
指定节点标签部署pod,是经过scheduler,如果节点不满足条件,pod会进入pending状态,直到节点满足条件为止
亲和性
节点亲和性
pod亲和性
软策略和硬策略
node节点的亲和性:
node节点的亲和性:
preferredDuringSchedulingIgnoredDuringExecution 软策略:
选择node节点时,我声明了我最好能不输在node01,软策略会尽量满足这个条件,不一定会完全部署在node01节点上
requiredDuringSchedulingIgnoredDuringExecution 硬策略:选择pod时,声明了node01,我是硬策略,必须满足硬策略的条件,必须部署在node01 ,强制性要求
pod的亲和性:
preferredDuringSchedulingIgnoredDuringExecution 软策略:
要求调度器讲pod调度到其他pod的亲和性匹配的节点上,可以是,也可以不是,尽量满足
例如
pod nginx1 node01
podnginx2 nginx2 希望和nginx1部署在一个节点上
requiredDuringSchedulingIgnoredDuringExecution 硬策略:
要求调度器讲pod调度到其他pod的亲和性匹配的节点上,必须是
例如
pod nginx1 node01
pod nginx2 nginx2必须要和nginx的亲和性匹配,只能往node01
键值的运算关系
标签,都是根据标签来选择亲和性
In:在
选择的标签值,在node节点上存在
Notin:不在
选择label的值不再node节点上
Gt:大于,大于选择的标签值
Lt:小于,小于选择的标签值
Exists: 存在,选择标签对象,值不考虑。
DoesNotExist: 不存在, 选择不具有指定标签的对象。值不考虑。
软策略
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nginx
name: nginx
spec:
replicas: 3
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.22
affinity:
#选择亲和性部署方式
nodeAffinity:
#选择的是node节点的亲和性
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
#选择了亲和性的策略,nodeSelectorTerms你要选择哪个node作为硬策略,匹配的节点的标签
- matchExpressions:
- key: test3
operator: In
#指定键值对的算法
values:
- c
Gt:大于,大于选择的标签值
Lt:小于,小于选择的标签值
只能比较整数值
亲和性策略更具标签来进行选择
#指定键值对的算法Exists或者DoesNotExist 不能使用values字段
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nginx
name: nginx
spec:
replicas: 3
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.22
affinity:
nodeAffinity:
preferredDuringSchedulingIgnoredDuringExecution:
- weight: 1
preference:
#选择节点的倾向,尽量满足要求而不是一定
matchExpressions:
- key: memory
operator: In
values:
- "1000"
软策略
多个软策略看权重,权重高,执行指定的软策略
硬策略:
先满足软策略,在满足硬策略
文章来源:https://blog.csdn.net/qq_71147683/article/details/135457472
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!