KEDA安装指南:Helm在线离线安装与卸载 / 周期性定时扩缩容 / 基于RabbitMQ消息队列的弹性伸缩配置 / 基于MySQL数据变化的弹性伸缩 / 使用ScaledJob处理任务与环境清理
整理 KEDA 的 Helm 在线安装、离线安装和卸载流程,为后续弹性伸缩实战准备运行环境。 以周期性扩缩容为例,演示 KEDA 如何基于定时规则对工作负载进行弹性伸缩。 围绕 RabbitMQ 队列消息场景,演示 KEDA 触发器配置、测试资源准备和伸缩验证流程。 通过 MySQL 数据驱动场景,展示 KEDA 如何基于数据库指标进行工作负载伸缩。 最后通过 ScaledJob 场景完成任务型处理实战,并附带整理整体实验环境的清理流程。
KEDA核心资源详解:ScaledObject、ScaledJob与TriggerAuthentication
聚焦 KEDA 的核心资源对象,理解 ScaledObject、ScaledJob 与 TriggerAuthentication 的定义和使用方式。
Kubernetes HPA原理与资源定义:工作流程、指标接口和配置要点 / 基于CPU与内存的自动扩缩容
从 Kubernetes HPA 的基本概念、指标接口到资源定义与注意事项,系统梳理原生自动扩缩容的核心知识。 通过 CPU 与内存两个场景,实战演示 Kubernetes HPA 的部署、扩缩容触发和压力验证流程。
Kubernetes高级调度实战:Pod只部署在Node节点与副本固定节点
除了常见的亲和与反亲和策略,Kubernetes 还可以按节点角色和副本粒度做更细致的调度控制。本文整理两个典型实战:限制 Pod 只部署在 Node 节点,以及为不同副本指定固定节点。
Kubernetes节点反亲和实战:让计算服务避开低性能机器
相比把业务优先调度到高性能节点,另一种常见思路是直接把低性能节点排除在外。本文通过节点反亲和实践,说明如何让计算型服务避免落到低性能机器上。
Kubernetes节点亲和实战:计算服务优先部署到高性能机器
当集群里同时存在普通节点和高性能节点时,计算密集型业务如果调度不当,很容易出现吞吐下降或延迟抖动。本文通过节点亲和策略,演示如何让计算服务优先运行在高性能机器上。
Kubernetes Pod亲和实战:让应用与缓存部署在同一域内
有些业务组件之间对网络时延非常敏感,例如应用服务与 Redis 缓存。此时可以利用 Pod 亲和能力,把相互依赖的工作负载尽量安排在同一节点或同一拓扑域中。
显示第 111 - 120 条,共 1671 条记录