最近更新时间:2023.11.22 19:14:01
首次发布时间:2023.03.01 18:21:10
本文主要描述如何使用容器服务提供的负载感知调度能力,实现节点负载均衡的目标。
说明
【邀测·申请试用】:该功能目前处于邀测阶段,如需使用,请提交申请。
负载感知调度是容器服务提供的基于节点真实负载,进行合理调度的策略。调度过程中,通过参考节点负载的历史统计,将 Pod 优先调度到负载较低的节点,实现节点负载均衡的目标,避免出现因单个节点负载过高而导致的应用程序或节点故障。本文介绍如何使用负载感知调度。
通过在 Pod 中添加 Annotations 来标识该 Pod 是否基于节点的真实负载情况,开启负载感知调度。
Annotation Key | Annotation Value 示例值 | 说明 |
---|---|---|
vke.volcengine.com/load-aware-enabled | true | 是否开启负载感知调度。取值如下:
|
YAML 文件示例如下所示。
apiVersion: v1 kind: Pod metadata: annotations: vke.volcengine.com/load-aware-enabled: "true" # 是否开启负载感知调度。 labels: app: load-aware-pod name: load-aware-pod # Pod 名称。 namespace: default # Pod 所在命名空间。 spec: containers: - name: hello-pod # 容器名称。 image: nginx:latest # 容器镜像地址。 ports: - containerPort: 8080 # 容器端口。
本文以集群中存在 3 个节点(4 Core、16 GiB 规格)为例,对比使用负载感知调度前后的节点负载差异,介绍如何将业务 Pod 调度到负载较小的节点上,实现节点负载均衡的方法。
stress-test.yaml
代码如下所示。apiVersion: apps/v1 kind: Deployment metadata: name: stress-test # Deployment 名称。 namespace: default # Deployment 所属命名空间。 labels: app: stress-test spec: replicas: 2 # Pod 实例个数。 selector: matchLabels: app: stress-test template: metadata: name: stress-test labels: app: stress-test spec: containers: - args: - '--vm' - '3' - '--vm-bytes' - '1800M' - '-c' - '3' - '--vm-hang' - '10' command: - stress image: polinux/stress imagePullPolicy: Always name: stress resources: limits: cpu: '3' memory: 6Gi requests: cpu: '3' memory: 6Gi restartPolicy: Always
kubectl apply -f stress-test.yaml
预期返回结果如下所示,表示 Pod 被调度到kubectl get pods -owide
192.168.1.5
和192.168.1.3
节点上。预期返回结果如下所示,表示kubectl top nodes
192.168.1.5
和192.168.1.3
节点是高负载节点。上述结果表示节点的负载不均衡,期望后续将 Pod 尽量调度到192.168.1.4
节点时,按如下说明,在业务 Pod 中添加 Annotations,开启负载感知调度。
apiVersion: apps/v1 kind: Deployment metadata: name: nginx # Deployment 名称。 namespace: default # Deployment 所属命名空间。 labels: app: nginx spec: replicas: 6 selector: matchLabels: app: nginx template: metadata: annotations: vke.volcengine.com/load-aware-enabled: "true" # 开启负载感知调度。 name: nginx labels: app: nginx spec: containers: - name: nginx-cantainer image: nginx:latest # Pod 的容器镜像地址和 Tag。 resources: limits: cpu: 500m # 容器 CPU 上限。 requests: cpu: 500m # 容器 CPU 请求。
预期返回结果如下所示,6 个 Pod 均被调度到kubectl get pods -owide
192.168.1.4
节点上。