Pod 动态分配存储空间实现持久化存储

配置 Pod 以使用 PersistentVolume 作为存储

​ 关于持久卷的介绍,可以看官方文档 https://kubernetes.io/zh-cn/docs/concepts/storage/persistent-volumes/

​ 持久卷根据存储位置,可以使用本地存储和云存储,如果有云服务平台,可以动态使用配置云资源(如Google Cloud Platform (GCP) 、 AWS、Azure);使用的云提供商,需要使用相应的 provisioner 和参数,

provisioner: 指定存储插件(Provisioner),根据你实际环境调整。例如:

  • NFS 使用 nfs.csi.k8s.io
  • Ceph 使用 cephfs.csi.ceph.com
  • AWS 使用 kubernetes.io/aws-ebs

​ 云存储服务需要集群运行在云服务商提供的平台;如在 GCP 上运行 Kubernetes kubernetes.io/gce-pd;kubernetes.io/aws-ebs(适用于 AWS)或者 kubernetes.io/azure-disk(适用于 Azure),云存储服务有自带的 provisioner

​ 如果使用的是本地环境,可以使用以下几种方式来配置存储:

  1. 本地存储(Local Storage)
  2. NFS 存储
  3. 网络存储(如 iSCSI)

hostPath 类型

hostPath : 定义主机节点文件系统上的路径,作为存储位置。这里指定路径为 /mnt/repository;hostPath 类型的 PersistentVolume 使用节点上的文件或目

录来模拟网络附加存储

hostPath 卷 通常用于本地测试或单节点集群,在生产环境中并不推荐使用,因为它依赖于特定节点上的路径。在生产集群中,你不会使用 hostPath。 集群管理员会提供网络存储资源,比如 Google Compute Engine 持久盘卷、NFS 共享卷或 Amazon Elastic Block Store 卷。 集群管理员还可以使用 StorageClass 来设置动态制备存储

​ 确保在主机节点上存在 /mnt/repository 目录,并且 Kubernetes 进程对该目录有访问权限。

创建 PersistentVolume

hostPath PersistentVolume 的配置文件:

yaml 复制代码
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv-volume
  labels:
    type: local
spec:
  storageClassName: manual
  capacity:
    storage: 20Gi
  accessModes:
    - ReadWriteOnce
  hostPath:
    path: "/mnt/repository"

​ 这里是不使用动态分配的,因此是没有存储分配器来动态分配存储资源,即 kubernetes.io/no-provisioner, 配置文件指定卷位于集群节点上的 /mnt/repository 路径;其配置还指定了卷的容量大小为 20 GB,访问模式为 ReadWriteOnce, 这意味着该卷可以被单个节点以读写方式安装。 此配置文件还在 PersistentVolume 中定义了 StorageClass 的名称为 manual。 它将用于将 PersistentVolumeClaim 的请求绑定到此 PersistentVolume

​ 创建 PersistentVolume,查看 PersistentVolume 信息

​ 输出结果显示该 PersistentVolume 的状态(STATUS)Available。 这意味着它还没有被绑定给 PersistentVolumeClaim

创建 PersistentVolumeClaim

yaml 复制代码
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: pv-claim
spec:
  storageClassName: manual
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 20Gi

​ 创建 PersistentVolumeClaim 之后,Kubernetes 控制平面将查找满足申领要求的 PersistentVolume。 如果控制平面找到具有相同 StorageClass 的适当的 PersistentVolume, 则将 PersistentVolumeClaim 绑定到该 PersistentVolume 上。

再次查看 PersistentVolume 信息:

创建 Pod

创建一个使用 PersistentVolumeClaim 作为存储卷的 Pod

yaml 复制代码
apiVersion: apps/v1
kind: Deployment
metadata:
  name: httpd-deployment
spec:
  replicas: 1
  selector:
    matchLabels:
      app: httpd
  template:
    metadata:
      labels:
        app: httpd
    spec:
      containers:
      - name: httpd
        image: m.daocloud.io/docker.io/httpd:latest
        ports:
        - containerPort: 80
        volumeMounts:
        - name: httpd-pvc
          mountPath: "/usr/local/apache2/htdocs"  # 挂载路径
      volumes:
      - name: httpd-pvc
        persistentVolumeClaim:
          claimName: pv-claim  # PVC 名称

​ 创建好之后可以看到,容器内部的文件夹与宿主机的文件夹的文件是同步的

NFS 存储

​ 在官方文档中并不建议使用 hostPath 卷,或者通常用于本地测试或单节点集群,在生产环境中并不推荐使用;因为我们显然可以发现一些问题,Pod 想要挂载本地磁盘,只能指定当前节点的文件路径作为存储,非常不灵活,且路径必须由管理员手动指定,无法动态分配存储资源

​ 解决动态分配可以使用存储资源自动调配器,想要灵活选择存储位置可以使用 NFS 不局限于本地存储路径

NFS Subdir External Provisioner

nfs-subdir-external-provisioner ,是一个存储资源自动调配器,它可将现有的 NFS 服务器通过持久卷声明来支持 Kubernetes 持久卷的动态分配。该组件是对 Kubernetes NFS-Client Provisioner 的扩展

安装 NFS Client

​ 所有的集群节点都需要安装客户端

sudo apt-get update && sudo apt-get install -y nfs-common

Helm 安装

sh 复制代码
# 添加 Helm 源
helm repo add nfs-subdir-external-provisioner https://kubernetes-sigs.github.io/nfs-subdir-external-provisioner
  • 命令行安装 NFS Subdir External Provisioner
sh 复制代码
helm install nfs-subdir-external-provisioner nfs-subdir-external-provisioner/nfs-subdir-external-provisioner --set storageClass.name=nfs-sc --set nfs.server=172.100.0.109 --set nfs.path=/mnt/nfs-repository -n nfs-system

说明:

--set storageClass.name=nfs-sc:指定 storageClass 的名字(没有的话会自己创建)

--set nfs.server=192.168.9.81:指定 NFS 服务器的地址

--set nfs.path=/data/k8s:指定 NFS 导出的共享数据目录

--set storageClass.defaultClass=true:指定为默认的 sc,本示例没使用

-n nfs-system:指定命名空间

​ 这里是会默认下载一个镜像 registry.k8s.io/sig-storage/nfs-subdir-external-provisioner:v4.0.2

  • 自定义 values 安装 NFS Subdir External Provisioner

​ 有更多定制化需求时可以选择自定义 values.yaml 的方式进行安装,实际使用中与命令行安装 NFS Subdir External Provisioner 并无区别,(如果网络限制无法下载镜像建议使用)

sh 复制代码
helm pull nfs-subdir-external-provisioner/nfs-subdir-external-provisioner

tar xvf nfs-subdir-external-provisioner-4.0.18.tgz
  • 查看 values.yaml 文件

    cat nfs-subdir-external-provisioner/values.yaml | egrep -v '#|^$'

    replicaCount: 1
    strategyType: Recreate
    image:
    repository: registry.k8s.io/sig-storage/nfs-subdir-external-provisioner
    tag: v4.0.2
    pullPolicy: IfNotPresent
    imagePullSecrets: []
    nfs:
    server:
    path: /nfs-storage
    mountOptions:
    volumeName: nfs-subdir-external-provisioner-root
    reclaimPolicy: Retain
    storageClass:
    create: true
    defaultClass: false
    name: nfs-client
    allowVolumeExpansion: true
    reclaimPolicy: Delete
    archiveOnDelete: true
    onDelete:
    pathPattern:
    accessModes: ReadWriteOnce
    volumeBindingMode: Immediate
    annotations: {}
    leaderElection:
    enabled: true
    rbac:
    create: true
    podSecurityPolicy:
    enabled: false
    podAnnotations: {}
    podSecurityContext: {}
    securityContext: {}
    serviceAccount:
    create: true
    annotations: {}
    name:
    resources: {}
    nodeSelector: {}
    tolerations: []
    affinity: {}
    labels: {}
    podDisruptionBudget:
    enabled: false
    maxUnavailable: 1

  • 根据自己集群实际配置更改

    主要修改内容如下

    image:
    repository: registry.k8s.io/sig-storage/nfs-subdir-external-provisioner #镜像拉取地址,默认可能拉取不下来,建议替换成本地或是其他可正常访问的仓库,也可以使用我DockerHub上的的 unopsman/nfs-subdir-external-provisioner
    tag: v4.0.2 #镜像 tag 默认为 v4.0.2,可根据实际情况替换
    nfs:
    server: 172.100.0.109 #指定 NFS 服务器的地址
    path: /mnt/nfs-repository #指定 NFS 导出的共享数据目录
    storageClass:
    defaultClass: false #是否设置为默认的 StorageClass,本示例没设置,有需要的可以设置为 true
    name: nfs-sc #指定 storageClass 的名字

​ 这里的挂载路径需要提前共享导出

/mnt/nfs-repository  *(rw,sync,no_subtree_check,no_root_squash)
  • 应用更改后的 values.yaml 安装下载

    helm install nfs-subdir-external-provisioner nfs-subdir-external-provisioner/nfs-subdir-external-provisioner -f nfs-subdir-external-provisioner/values.yaml -n nfs-system

​ 正常情况下,查看 pod 的状态应该是 Running

​ 如果出现一直为容器创建中的情况,查看日志报错为如下情况,需要在集群每一个节点不只是 master 上安装 nfs 客户端

# 安装 客户端
sudo apt-get update && sudo apt-get install -y nfs-common

验证测试

​ 因为我们现在有了 NFS Subdir External Provisioner 分配器,我们就需要向上面一样先申请 pv 再定义 pvc 绑定,然后 Pod 再挂载 PVC 了;我们可以直接创建 pvc ,分配器可以动态分配相应的 pv ,来绑定我们的 pvc;分配规则是由 storageClass 配置决定的

创建测试 PVC
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: test-nfs-pvc
spec:
  storageClassName: nfs-sc
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 1Gi

​ 正常情况下,查看 pvc 应该是绑定的状态,如果不是,有几种常见的错误

​ 如果是这两种情况,检查配置的路径是否共享导出了;编辑 /etc/exports 文件,并且重新导出

/mnt/nfs-repository  *(rw,sync,no_subtree_check,no_root_squash)

​ 如果是这种情况,只要把存储目录的权限放开就好

​ 这是情况下的状态

创建测试 Pod
apiVersion: v1
kind: Pod
metadata:
  name: test-nfs-pod
spec:
  volumes:
    - name: test-nfs-pvc
      persistentVolumeClaim:
        claimName: test-nfs-pvc
  containers:
    - name: test-nfs-container
      image: nginx:latest
      ports:
        - containerPort: 80
          name: "http-server"
      volumeMounts:
        - mountPath: "/usr/share/nginx/html"
          name: test-nfs-pvc

​ 如果 pod 运行正常,在指定的目录下会自动创建目录文件并挂载到容器的指定目录下面

测试

参考官网:

配置 Pod 以使用 PersistentVolume 作为存储

持久存储设计文档

相关推荐
KubeSphere 云原生1 天前
KubeSphere 最佳实战:K8s 构建高可用、高性能 Redis 集群实战指南
云计算·k8s·容器平台·kubesphere
技术-hxy4 天前
由于centos停更,yum、docker等不支持,采用阿里云仓库搭建K8S
centos·k8s
KubeSphere 云原生6 天前
云原生周刊:Kubernetes v1.32 要来了
云计算·k8s·容器平台·kubesphere
运维小文9 天前
K8S资源限制之resources
云原生·k8s·资源限制·resources
小安运维日记11 天前
CKA认证 | Day3 K8s管理应用生命周期(上)
运维·云原生·容器·kubernetes·云计算·k8s
sam-12311 天前
k8s上部署redis高可用集群
redis·docker·k8s
Suhw13 天前
借助 Pause 容器调试 Pod
k8s·pause容器
运维小文13 天前
K8资源之endpoint资源&EP资源
linux·网络·k8s·运维开发
小安运维日记14 天前
CKA认证 | Day1 k8s核心概念与集群搭建
运维·云原生·容器·kubernetes·云计算·k8s