CephFS 挂载报错排查与 Ceph RBD、CephFS 选型建议
CephFS 真正落地时,常见难点往往不是创建 StorageClass,而是 CSI 驱动挂载异常与场景选型。本文先排查 CephFS 挂载报错,再对比 CephFS 和 Ceph RBD 的优缺点与适用场景。
共找到 18 篇相关文章
CephFS 真正落地时,常见难点往往不是创建 StorageClass,而是 CSI 驱动挂载异常与场景选型。本文先排查 CephFS 挂载报错,再对比 CephFS 和 Ceph RBD 的优缺点与适用场景。
当业务需要 ReadWriteMany 能力时,CephFS 往往比 RBD 更适合。本文围绕 CephFS StorageClass、PVC 创建和 Redis 持久化验证,说明 CephFS 在 Kubernetes 中的典型使用方式。
RBD 是 Ceph 中最常见的块存储方案,适合需要低延迟和单节点挂载的应用。本文演示如何在 Kubernetes 中部署 Ceph RBD StorageClass、设置默认存储卷并完成 PVC 验证。
Ceph 集群部署完成后,还需要可视化界面和命令行工具来做状态查看与日常运维。本文介绍 Ceph Dashboard 的外部访问方式,以及如何借助 Toolbox 查看 Ceph 集群与 OSD 状态。
完成前置准备后,真正的重点在于如何把 Rook Operator 和 CephCluster 资源正确落到 Kubernetes 中。本文围绕 Operator、cluster.yaml 关键配置和最终 Pod 状态校验,梳理 Rook 1.17 部署 Ceph 集群的完整过程。
Rook 部署 Ceph 前,最容易被忽略的其实是节点和系统层面的准备工作。本文集中整理裸盘准备、CSI 路径确认、cert-manager、LVM2 安装以及 RBD 模块检查这些前置步骤。
想在 Kubernetes 中使用 Ceph,先要理解为什么 Rook 会成为官方推荐方案,以及 Ceph 本身提供了哪些存储能力。本文从 Rook 的定位、Ceph 的三种存储形态和核心组件职责开始梳理。
NFS 动态存储搭好之后,真正关键的是如何被业务工作负载稳定使用。本文通过 PVC 和 StatefulSet 两个典型场景,演示 NFS StorageClass 在 Kubernetes 中的持久化使用方式。
在 Kubernetes 中落地 NFS 动态存储,核心不只是把 NFS 服务装起来,还要让集群能够自动创建 PV。本文从 NFS 服务端准备讲起,继续完成 nfs-client-provisioner、RBAC 和 StorageClass 的配置流程。
1、获取ceph集群信息和admin用户的key。