【云原生】openebs-device+cstor存储方案部署

要配置使用 OpenEBS 的 device+cStor 存储方案,需要完成 cStor 池的创建、存储类定义等步骤。cStor 是 OpenEBS 提供的高性能块存储解决方案,基于存储设备构建,支持快照、克隆等高级功能。以下是详细配置步骤:

一、前提条件

1. 节点准备
  • Kubernetes 集群(1.21+ 版本,本文k8s版本为1.28.2)

  • 每个节点上有至少一块空闲的块设备(未格式化且未挂载

  • 安装 OpenEBS(参考官方文档):

bash 复制代码
kubectl apply -f https://openebs.github.io/charts/openebs-operator.yaml
2. 验证 OpenEBS 组件
bash 复制代码
kubectl get pods -n openebs

确保 cstor-operatoropenebs-ndm 等组件正常运行(STATUS=Running)。

二、配置步骤

1. 发现并标记存储设备

OpenEBS 的 NDM(Node Disk Manager)会自动发现节点上(openebs-ndm运行的节点)的块设备,需标记可用设备供 cStor 使用。

(1)查看发现的设备(存在污点的master节点除外)

bash 复制代码
kubectl get blockdevices -n openebs

输出示例:

复制代码
NAME                NODENAME    SIZE          CLAIMSTATE   STATUS
blockdevice-123...   slave01       107374182400  Unclaimed    Active
blockdevice-876...   slave02       107374182400  Unclaimed    Active

(2)标记设备为 "cstor" 可用

bash 复制代码
kubectl label blockdevices -n openebs blockdevice-12345678... openebs.io/block-device-type=cstor
kubectl label blockdevices -n openebs blockdevice-87654321... openebs.io/block-device-type=cstor
2. 安装cstor-operator
bash 复制代码
kubectl apply -f https://openebs.github.io/charts/cstor-operator.yaml
​
# 若registry.k8s.io镜像仓库无法访问

# 方案一:
可以 wget https://openebs.github.io/charts/cstor-operator.yaml 到本地
# 将镜像中registry.k8s.io替换为k8s.mirror.nju.edu.cn
# 然后 kubectl apply -f cstor-operator.yaml

​# 方案二:
# 或者在各节点containered仓库配置
sudo vi /etc/containerd/config.toml
# 添加如下配置
 [plugins."io.containerd.grpc.v1.cri".registry.mirrors."registry.k8s.io"] # registry.k8s.io
               endpoint = ["https://k8s.mirror.nju.edu.cn"]
               
# 再reload、restart containered
sudo systemctl daemon-reload
sudo systemctl restart containerd
3. 验证是否安装成功
bash 复制代码
kubectl get crd | grep cstor
4. 创建 cStor 池(CStorPoolCluster)
bash 复制代码
apiVersion: cstor.openebs.io/v1
kind: CStorPoolCluster
metadata:
  name: cstor-pool
  namespace: openebs
spec:
  pools:
    # 02节点的池配置
    - nodeSelector:
        kubernetes.io/hostname: hy02  # 目标节点
      dataRaidGroups:
        - blockDevices:
            # 02节点的块设备名称
            - blockDeviceName: blockdevice-6710671d199cc923f5d05d72a16f8e51
      poolConfig:
        # 单盘必须用 stripe;mirror 需至少 2 块盘;raidz 需至少 3 块盘
        dataRaidGroupType: stripe
        # 可选:开启厚置备(默认 false,即 thin provision)
        thickProvision: false
        # 可选:压缩(默认 off,可选 lz)
        compression: "off"

    # 03节点的池配置
    - nodeSelector:
        kubernetes.io/hostname: hy03  # 目标节点
      dataRaidGroups:
        - blockDevices:
            # 03节点的块设备名称
            - blockDeviceName: blockdevice-1e62f0264d7ceb5c4b6232d67e0d1915
      poolConfig:
        # 单盘必须用 stripe
        dataRaidGroupType: stripe
        thickProvision: false
        compression: "off"

(1)应用配置

bash 复制代码
kubectl apply -f cstor-pool.yaml

(2)验证 cStor 池状态

bash 复制代码
# 查看池集群
kubectl get cspc -n openebs
# 查看单个池状态
kubectl get cspi -n openebs

三、创建存储类(StorageClass)

bash 复制代码
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: openebs-cstor
provisioner: cstor.csi.openebs.io
parameters:
  cas-type: cstor
  cstorPoolCluster: cstor-pool   # 对应你的 CSPC 名称
  replicaCount: "2"              # 数据副本数(建议与节点数一致)
allowVolumeExpansion: true

应用配置

bash 复制代码
kubectl apply -f cstor-sc.yaml

四、使用:创建PVC、PV即可

自动创建pv和pvc绑定

亲测有效哦,如果文章中有什么问题,欢迎大家批评指正!!!

相关推荐
蜀道山老天师20 小时前
云原生监控入门:监控基础概念 + SLI/SLO/SLA 详解 + Prometheus 从零安装配置
linux·运维·云原生·prometheus
运维老郭21 小时前
K8S 容器独占 CPU(CPU 绑核)最佳实践,解锁极致性能所需的 3 个核心条件及其代价
运维·云原生·kubernetes
掘根1 天前
【微服务即时通讯】登录注册界面设计
微服务·云原生·架构
非情剑1 天前
Tlog实现微服务日志追踪
微服务·云原生·架构
小小仙。1 天前
IT自学第四十一天(微服务)
微服务·云原生·架构
志栋智能1 天前
超自动化巡检:敏捷运维体系中的重要一环
运维·服务器·网络·云原生·容器·kubernetes·自动化
东北甜妹1 天前
K8s job /cronjob 和 Networkpolicy
云原生·容器·kubernetes
hyunbar1 天前
ZooKeeper 未授权访问漏洞:你做的 ACL 加固可能只是“假动作”
分布式·zookeeper·云原生
秋饼1 天前
kubernetes (K8S)组件介绍以及原理
云原生·容器·kubernetes
阿里-于怀1 天前
Nacos Skill Registry: 面向个人场景的Skill中心实践
阿里云·云原生·nacos·agent·skills