云原生存储Rook部署Ceph

Rook 是一款云原生存储编排服务工具,Ceph 是一种广泛使用的开源分布式存储方案,通过Rook 可以大大简化 ceph 在 Kubernetes 集群中的部署和维护工作。

Rook 由云原生计算基金会( CNCF )孵化,且于 2020 年 10 月正式进入毕业阶段。Rook 并不直接提供数据存储方案,而是集成了各种存储解决方案,并提供一种自管理、自扩容、自修复的云原生存储服务。社区官方资料显示, Rook 目前最新的稳定版本中,只有 Rook +Ceph 存储集成方案处于 stable 状态,版本升级较平滑。

Ceph 是一种广泛使用的开源分布式存储方案,通过 Rook 则可以大大简化 Ceph 在Kubernetes 集群中的部署和维护工作。基于 Rook+Ceph 的存储方案,能为云原生环境提供文件、块及对象存储服务。

建立 ceph 集群不仅需要大量的服务器资源,本身的复杂度也需要人力成本。但是在企业内部使用 Kubemetes时,无论是在部署业务服务还是中间件服务,都能很明显地体会到Kubernetes 的便利性和强大之处,所以我们在企业内部使用 Kubernetes 时,同时也会把中间件服务(比如 MySQL、RabbitMQ、Zookeeper等)部署在Kubernetes集群中。

相对于生产环境,也需要保留它们的数据,但是非生产环境可能并没有现成的,存储平台供Kubernetes 使用,新建一个平台供其使用也会浪费很多精力。为了解决非生产环境的数据持久化问题,很多公司都采用了 NFS 作为后端,但是一旦使用的容器较多或者存储的数据量比较大,就容易造成性能问题,并且 NFS 服务器一旦出现问题,整个数据可能会全部丢失,所以在非生产环境也需要一个高可用、分布式并且免运维的存储平台,于是 Rook 就诞生了。

Rook是一个自我管理的分布式存储编排系统,它本身并不是存储系统,Rook在存储和Kubernetes 之间搭建了一个桥梁,使存储系统的搭建或者维护变得特别简单,Rook 将分布式存储系统转变为自我管理、自我扩展、自我修复的存储服务。它让一些存储的操作比如部署、配置、扩容、升级、迁移、灾难恢复、监视和资源管理变得自动化,无须人工处理。同时 Rook 支持 CSI,可以利用 CSI 做一些 PVC 的,快照、扩容、克隆等操作。

有了 Rook 就可以快速地搭建一个Ceph 存储系统,用来持久化一些必需的数据,不仅降低了运维复杂度,也能更加方便地体验 Kubernetes 带来的收益,同时也可以通过 Rook 来演示更多的Kubernetes 存储的高级功能。

RADOS(Reliable Autonomic Distributed Object Store)是一个由Ceph存储系统使用的核心组件。它是一个高性能、可靠的分布式对象存储系统,负责管理数据存储和检索。RADOS的主要特点包括:

  • 分布式架构:RADOS将数据分布在多个存储节点上,这些节点共同工作以提供高可用性和高性能。

  • 数据冗余:为了确保数据的可靠性,RADOS使用数据复制和纠删码技术,以处理硬件故障或节点故障时的数据恢复。

  • 自我修复:RADOS具有自我修复的能力,当某些节点出现故障时,它会自动将数据重新分布到其他正常的节点上。

  • 对象存储:RADOS使用对象存储的方式来管理数据,提供灵活的数据访问和管理方法。每个对象都有一个唯一的标识符,并且可以存储大量数据。

  • 高可扩展性:RADOS可以随着存储需求的增长而水平扩展,只需添加更多的存储节点即可。

RADOS是Ceph的基础组件之一,为Ceph的文件系统、块存储和对象存储提供底层的存储服务。

一、Rook的安装

Rook 是专门为 Kubernetes 设计的云原生存储,所以它本身和由 Rook 创建的 Ceph 集群都是部署在 Kubernetes 平台上的,本案例安装的 Rook为1.6 的版本。

1.为所有主机添加磁盘

注意:

在本案例中,是一台 master,两台 node,因为 ceph 集群的最小要求是三个节点,因此需要在包含 master 主机在内的三台主机都添加磁盘。所有主机添加一块 100G 的磁盘,以满足案例实验需求。

数据盘可以是一块硬盘 sdb,也可以是硬盘的一个分区 sdb2,或者是逻辑卷,但是这些都必须没有被格式过,没有指定文件系统类型。

可以使用 1sblk -f 来确认数据盘有没有被文件系统格式化过。FSTYPE 字段为空即代表未被文件系统格式化过。

#如下所示,vdb 可以作为 ceph 的数据盘。

[root@master ~]# lsblk -f
NAME   FSTYPE  LABEL         UUID                                   MOUNTPOINT
rbd0   ext4                  f45f43ee-35ef-4239-8784-5f5c84bb8e7e   /var/lib/k
sdb                                                                 
sr0    iso9660 CentOS 7 x86_64
                             2020-11-04-11-36-43-00                 /media/cdr
rbd1   ext4                  18326377-c7c2-459e-b8ae-91cde2c93ac5   /var/lib/k
sda                                                                 
├─sda2 xfs                   3f86f61c-7ee2-425e-9bef-e98f5ba8ef77   /boot
├─sda3 LVM2_me               YYnCZ6-mSgF-LxfI-deUt-NHPX-AAgz-UlNnyq 
│ ├─centos-swap
       swap                  193c600b-0015-4672-99c9-0384980d630e   
│ └─centos-root
       xfs                   9713830a-36c8-4c74-9d85-a873984779ac   /
└─sda1

2.保证所有安装 ceph 的节点都安装了 1vm2

Ceph 0sD 在某些情况下(比如启用加密或指定元数据设备)依赖于 LVM(Logical volumeManager)。如果没有安装 LVM2 软件包,则虽然 Rook 可以成功创建 ceph 0sD,但是当节点重新启动时,重新启动的节点上运行的 oSD pod 将无法启动。

[root@master ~]# yum -y install lvm2
已加载插件:fastestmirror
Loading mirror speeds from cached hostfile
 * base: mirrors.aliyun.com
 * extras: mirrors.aliyun.com
 * updates: mirrors.aliyun.com
软件包 7:lvm2-2.02.187-6.el7_9.5.x86_64 已安装并且是最新版本
无须任何处理
[root@master ~]# yum list installed | grep lvm2
lvm2.x86_64                     7:2.02.187-6.el7_9.5           @updates         
lvm2-libs.x86_64                7:2.02.187-6.el7_9.5           @updates

3.加载 rbd 内核

#Ceph 存储需要包含了 RBD 模块的 Linux 内核来文持。在使用 Kubernetes 环境中运行 ceph存储之前,需要在 Kubernetes 节点上运行 modprobe rbd 命令来测试当前内核中是否已经加载

了 RBD 内核。

[root@master ~]# modprobe rbd
[root@master ~]# lsmod | grep rbd
rbd                   118784  4 
libceph               512000  2 ceph,rbd

4.取消 master 污点

由于 ceph 集群默认最小三个节点,当前 kubernetes 也是三节点,1个master+2 个 worker,所以需要使用 master 节点来充当 ceph 节点,因此需要取消 master 节点上的污点,否是 ceph 相关 pod 无法调度到 master 节点,导致部署失败。

当然,如果 worker 节点足够则无需此操作。

(1)查看当前 kubernetes 环境中的污点
[root@master ~]# ku get no -o yaml | grep taint -A 5
taints:
- effect: NoSchedule
  key: node-role.kubernetes.io/master
status :
 addresses:
 - address:192.168.10.101

备注:

-A 5 表示显示出 taint 行以及往下的5 行

(2)取消 master 节点的污点
[root@k8s-master ~l# kubectl taint nodes --all node-role.kubernetes.io/master-

备注:

此命令能够取消所有设备的污点

5.下载 v1.11.5 版本的 Rook 源码:

git clone --single-branch --branch v1.11.5 https://github.com/rook/rook.git

备注:

v1.11.5 的版本可以支持 kubernetes:v1.21.8 以上的版本

本案例已经下载过,直接使用离线文件

6.拉取镜像(若本地已有这些镜像,可以不执行此步骤)

(1)查看都需要哪些镜像
[root@master ~]# cd rook/deploy/examples
#查看部署所需要的镜像提前拉取
[root@master examples]# cat images.txt 
 quay.io/ceph/ceph:v17.2.6
 quay.io/cephcsi/cephcsi:v3.8.0
 quay.io/csiaddons/k8s-sidecar:v0.5.0
 registry.k8s.io/sig-storage/csi-attacher:v4.1.0
 registry.k8s.io/sig-storage/csi-node-driver-registrar:v2.7.0
 registry.k8s.io/sig-storage/csi-provisioner:v3.4.0
 registry.k8s.io/sig-storage/csi-resizer:v1.7.0
 registry.k8s.io/sig-storage/csi-snapshotter:v6.2.1
 rook/ceph:v1.11.5
(2)用 docker pu11 拉取上边的所有镜像
(3)如果无法拉取,则采用如下方法拉取

如果拉不下去可使用以下脚本

该脚本从阿里云镜像仓库拉取到本地,再用 docker image tag 命令修改为为原镜像名称,再删除从阿里云拉取的镜像。

[root@master examples]# vim ceph-images.sh 

#!/bash/bin
image_list=(
  csi-node-driver-registrar:v2.7.0
  csi-attacher:v4.1.0
  csi-snapshotter:v6.2.1
  csi-resizer:v1.7.0
  csi-provisioner:v3.4.0
  rook/ceph:v1.11.5
  quay.io/ceph/ceph:v17.2.6
  quay.io/cephcsi/cephcsi:v3.8.0
)

aliyuncs="registry.aliyuncs.com/it00021hot"
google_gcr="registry.k8s.io/sig-storage"
for image in ${image_list[*]}
do
  docker image pull ${aliyuncs}/${image}
  docker image tag ${aliyuncs}/${image} ${google_gcr}/${image}
  docker image rm ${aliyuncs}/${image}
  echo "${aliyuncs}/${image} ${google_gcr}/${image} downloaded."
done

#执行脚本进行拉取
[root@master examples]# bash ceph-images.sh

7.部署 rook operator

[root@k8s-master examples# kubectl create -f crds.yaml -f common.yaml -foperator.yaml
[root@master examples]# ku -n rook-ceph get pod
NAME                                              READY   STATUS      RESTARTS   AGE
csi-cephfsplugin-8sljg                            2/2     Running     0          166m
csi-cephfsplugin-mhzvv                            2/2     Running     0          166m
csi-cephfsplugin-p67v4                            2/2     Running     0          166m
csi-cephfsplugin-provisioner-6f5d88b7ff-h56kg     5/5     Running     0          60m
csi-cephfsplugin-provisioner-6f5d88b7ff-nw8jn     5/5     Running     0          60m
csi-rbdplugin-7n4xv                               2/2     Running     0          166m
csi-rbdplugin-7z2pj                               2/2     Running     0          166m
csi-rbdplugin-n9sn4                               2/2     Running     0          166m
csi-rbdplugin-provisioner-57f5ddbd7-5fdmj         5/5     Running     0          60m
csi-rbdplugin-provisioner-57f5ddbd7-n26gp         5/5     Running     0          60m
rook-ceph-crashcollector-master-c9db59846-4p8k6   1/1     Running     0          59m
rook-ceph-crashcollector-node1-55f95c7755-rlrxs   1/1     Running     0          59m
rook-ceph-crashcollector-node2-64964c9cd4-9gkpr   1/1     Running     0          57m
rook-ceph-mds-myfs-a-7974ddf644-hpz4v             2/2     Running     0          59m
rook-ceph-mds-myfs-b-588ff47b85-gbnpp             2/2     Running     0          59m
rook-ceph-mgr-a-5df877c675-bhq69                  3/3     Running     0          65m
rook-ceph-mgr-b-55c59f5cb-9qpz4                   3/3     Running     0          165m
rook-ceph-mon-a-c95f8976f-c2rrd                   2/2     Running     0          166m
rook-ceph-mon-b-6788bc9cbc-zdczq                  2/2     Running     0          60m
rook-ceph-mon-c-6dc965ff85-n5bz6                  2/2     Running     0          60m
rook-ceph-operator-6c54c49f5f-95nwb               1/1     Running     0          60m
rook-ceph-osd-0-6644497bb6-26k7n                  2/2     Running     0          164m
rook-ceph-osd-1-7f76b5b8c9-dg9hn                  2/2     Running     0          60m
rook-ceph-osd-2-74fff78787-4srqh                  2/2     Running     0          60m
rook-ceph-osd-prepare-master-4ttz9                0/1     Completed   0          58m
rook-ceph-osd-prepare-node1-9fwg8                 0/1     Completed   0          58m
rook-ceph-tools-598b59df89-mh6ks                  1/1     Running     0          65m

二、部署 ceph 集群

[root@k8s-master examples]# kubectl create -f cluster.yaml

注意:

此步骤需要较长的时间(5 分钟)。总共需要启动 25 个pod,其中 ceph-osd-prepare 是job:所以状态是 Completed。

1.部署 ceph 工具

(1)部署 ceph-tools
[root@k8s-master ~]# cd /root/rook/deploy/examples/
[root@k8s-master examples]# kubectl apply -f toolbox.yaml
(2)查看 pod
[root@k8s-master examples]# kubectl get pod -n rook-ceph
注意:会多出一个名为rook-ceph-tools 的 pod
NAME                                              READY   STATUS      RESTARTS   AGE
csi-cephfsplugin-8sljg                            2/2     Running     0          169m
csi-cephfsplugin-mhzvv                            2/2     Running     0          169m
csi-cephfsplugin-p67v4                            2/2     Running     0          169m
csi-cephfsplugin-provisioner-6f5d88b7ff-h56kg     5/5     Running     0          64m
csi-cephfsplugin-provisioner-6f5d88b7ff-nw8jn     5/5     Running     0          64m
csi-rbdplugin-7n4xv                               2/2     Running     0          169m
csi-rbdplugin-7z2pj                               2/2     Running     0          169m
csi-rbdplugin-n9sn4                               2/2     Running     0          169m
csi-rbdplugin-provisioner-57f5ddbd7-5fdmj         5/5     Running     0          64m
csi-rbdplugin-provisioner-57f5ddbd7-n26gp         5/5     Running     0          64m
rook-ceph-crashcollector-master-c9db59846-4p8k6   1/1     Running     0          62m
rook-ceph-crashcollector-node1-55f95c7755-rlrxs   1/1     Running     0          63m
rook-ceph-crashcollector-node2-64964c9cd4-9gkpr   1/1     Running     0          60m
rook-ceph-mds-myfs-a-7974ddf644-hpz4v             2/2     Running     0          63m
rook-ceph-mds-myfs-b-588ff47b85-gbnpp             2/2     Running     0          62m
rook-ceph-mgr-a-5df877c675-bhq69                  3/3     Running     0          69m
rook-ceph-mgr-b-55c59f5cb-9qpz4                   3/3     Running     0          168m
rook-ceph-mon-a-c95f8976f-c2rrd                   2/2     Running     0          169m
rook-ceph-mon-b-6788bc9cbc-zdczq                  2/2     Running     0          64m
rook-ceph-mon-c-6dc965ff85-n5bz6                  2/2     Running     0          64m
rook-ceph-operator-6c54c49f5f-95nwb               1/1     Running     0          64m
rook-ceph-osd-0-6644497bb6-26k7n                  2/2     Running     0          168m
rook-ceph-osd-1-7f76b5b8c9-dg9hn                  2/2     Running     0          64m
rook-ceph-osd-2-74fff78787-4srqh                  2/2     Running     0          64m
rook-ceph-osd-prepare-master-4ttz9                0/1     Completed   0          62m
rook-ceph-osd-prepare-node1-9fwg8                 0/1     Completed   0          62m
rook-ceph-tools-598b59df89-mh6ks                  1/1     Running     0          69m
(3)登录rook-ceph-tools
# kubectl exec -it rook-ceph-tools-598b59df89-gjfvz -n rook-ceph -- bash
(4)查看ceph 集群状态
(5)查看osd目录树
(6)查看osd存储状态
(7)列出osd存储池

三、安装snapshot 控制器

要想实现 PVC 的快照功能,需要 snapshot 控制器,在 kubernetes1.19 版本以上需要单独安装 snapshot 控制器。如果是 1.19 以下的版本,则不需要单独安装。

1.下载安装包

[root@k8s-master ~l# git clone https://github.com/dotbalo/k8s-ha-install.git
[root@k8s-master ~l# cd k8s-ha-install/
[root@k8s-master k8s-ha-install]# git checkout manual-installation-v1.20.x

备注:

如果已经下载好离线包,上述三条可以不执行,直接使用离线包即可

2.部署

四、部署ceph-dashboard

(1)部署 dashboard
[root@k8s-master ~]# cd /root/rook/deploy/examples/
[root@k8s-master examples]# kubectl create -f dashboard-external-https.yaml
(2)查看svc

注意:

红色的 svc 是原有的 dashboard,要把它删掉。绿色部分是我们部署 dashboard 的时候创建出来的。

(3)删除原有的 svc
[root@k8s-masterexamplesl# kubectldelete:svc/rook-ceph-mgr-dashboard-nrook-ceph
(4)获取 ceph-dashboard 的登录密码
[root@master examples]# ku -n rook-ceph get secret rook-ceph-dashboard-password -o jsonpath="{['data']['password']}" | base64 --decode && echo
(5)登录ceph-dashboard
[root@k8s-master examples]# kubectl get svc -n rook-ceph

#访问地址

https://192.168.10.101:31540/

备注:

可以在此处做一个快照,方便后续重复实验

五、ceph 块存储的使用

块存储的使用一般是一个 Pod 挂载一个块存储,相当于一个服务器新挂了一个磁盘,只给一个应用使用,比如中间件服务 MySOL、RabbitMo、Redis 等。

1.创建 storageclass 和ceph 存储池

首先进入 Ceph 的代码目录,找到 RBD 目录的 storageclass 配置,然后根据需求修改对应参数。此处主要修改的是副本数,在生产环境中,副本数至少为3,且不能超过 OSD 的数量。此处为实验环境,本案例设置为 2。

[root@k8s-master ~]# cd /root/rook/deploy/examples/csi/rbd
[root@k8s-master rbd]# vim storageclass.yaml
  replicated:
    size:2

2.创建 storageclass 和存储池

[root@k8s-master rbd]# kubectl create -f storageclass.yaml -n rook-ceph

3.查看创建结果

[root@k8s-master rbd]# kubectl get cephblockpool -n rook-ceph
NAME        PHASE
replicapool    Ready

[root@k8s-master rbd]# kubectl get sc

注意:这里创建的 storageclass 的名字为 rook-ceph-block,在创建 PVC 的时候指定这个名字,即可让 PVC 和这个存储关联起来。

4.通过 ceph Dashboard 查看

https://192.168.10.101:31540

5.挂载测试

(1)创建一个 MySQL 服务使用该存储
[root@k8s-master ~]# cd /root/rook/deploy/examples
#rook 自带了一个MySOL 的测试样例,如下所示
[root@master examples]# vim mysql.yaml 

  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 10Gi
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: wordpress-mysql
  labels:
    app: wordpress
    tier: mysql
spec:
  selector:
    matchLabels:
      app: wordpress
      tier: mysql
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        app: wordpress
        tier: mysql
    spec:
      containers:
        - image: mysql:5.6
          name: mysql
          env:
            - name: MYSQL_ROOT_PASSWORD
              value: changeme
          ports:
            - containerPort: 3306
              name: mysql
          volumeMounts:
            - name: mysql-persistent-storage
              mountPath: /var/lib/mysql
      volumes:
        - name: mysql-persistent-storage
          persistentVolumeClaim:
            claimName: mysql-pv-claim

备注:

在这个文件中有一段 PVC 的配置,该 PVC 会连接刚才创建的 storageclass,然后动态创建 PV供 Pod 使用,之后如果有其他的存储需求,只需要创建 PVc 指定 storageclassName 为刚才创建的Storageclass 名称即可连接到 Rook的Ceph。如果是 tatefulset,只需要将volumeTemplateclaim 里面的 claim 名称改为 Storageclass 名称即可动态地为每个 Pod 创建个单独的 PV。

[root@k8s-master examples]# kubectl create -f mysql.yaml
(2)查看创建的 PVC 和 PV

因为 MySQL 的数据不允许多个MySQL 实例连接同一个存储,所以一般只能用块存储。相当于新加了一块盘给 MySOL 使用。创建完成后可以査看创建的 PVC 和 PV。

(3)ceph Dashboard 上查看对应的 Image

https://192.168.10.101:31540

(4)查看 pod 中的卷

6.statfulSet volumeClaimTemplates

在之前的章节提到过 statfulset 用于有状态的应用部署,在实际使用时,可以很方便地利用statfulset 创建一个 Eureka 集群、Redis 集群或者其他集群。在使用 statfulset 创建应用时,会给每个 Pod 创建一个固定的标识符比如 redis-0、 redis-1 等。

根据 statfulset 的特性,可以很方便地组建一个集群,但是需要注意的是,受 statfulset管理的 Pod 可能每个 Pod 都需要自己独立的存储,并非和其他 Pod 共享数据。比如创建一个 Redis一主二从的主从架构,Redis 主节点和两个从节点的数据肯定是不一致的,所以此时需要为每个 Pod单独创建一个存储供其使用,可以使用 statfulset 独有的 volumeclaimTemplates 参数结合Storageclass 为每个 Pod 动态创建 PVC,这样每个 Pod 就有了自己独有的存储。接下来用一个简单的示例介绍 volumeclaimTemplates 的使用。

(1)编辑示例文件

#volumeclaimTemplates 没有提供样例文件,需要自己编辑

[root@master examples]# vim volumeClaimTemplates.yaml

apiVersion: v1
kind: Service
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  ports:
  - port: 80
    name: web
  clusterIP: None
  selector:
    app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: web
spec:
  selector:
    matchLabels:
      app: nginx # has to match .spec.template.metadata.labels
  serviceName: "nginx"
  replicas: 3 # by default is 1
  template:
    metadata:
      labels:
        app: nginx # has to match .spec.selector.matchLabels
    spec:
      terminationGracePeriodSeconds: 10
      containers:
      - name: nginx
        image: nginx:1.7.9
        ports:
        - containerPort: 80
          name: web
        volumeMounts:
        - name: www
          mountPath: /usr/share/nginx/html
  volumeClaimTemplates:
  - metadata:
      name: www
    spec:
      accessModes: [ "ReadWriteOnce" ]
      storageClassName: "rook-ceph-block"
      resources:
        requests:
          storage: 1Gi

备注:

name:www ##和 volume 的 name 类似,通过 volumeMounts 指定该名字挂载到 pod

accessModes:["ReadWriteOnce"] ##访问模式

storageClassName:"rook-ceph-block" ##StorageClass名字

resources:存储配置

超过 terminationGracePeriodseconds 等待时间后,K8S会强制结束老POD

(2)创建StatefulSet
[root@k8s-master examples]# kubectl create -f volumeclaimTemplates.yaml

此时,3个 Pod 分别有了自己的存储数据互不共享,在使用 statefulset 建立 Redis、MySQL、RabbitM0 集群时,如果需要持久化数据,就需要使用 volumeclaimTemplates 参数为每个 Pod 提供存储。

六、共享型文件系统的使用

共享型文件系统一般用于多个 Pod 共享一个存储,比如用户上传的头像、需要被多个前端访问等。

1.创建共享型文件系统

与块存储类似,也需要创建共享型文件存储的 pool。

(1)为共享型文件系统创建 pool
[root@k8s-master ~]# cd /root/rook/deploy/examples
[root@k8s-master examplesl# kubectl create -f filesystem.yaml
(2)查看 pod 启动状态

由于文件存储需要使用 metadata server 存储元数据,因此创建完成后会启动 mds 容器,需要等待 mds 容器启动后才可以创建 PV。

(3)在ceph dashboard 查看

2.创建共享型文件系统的 storageclass

文件存储也需要一个 storageclass 动态创建 PV。

[root@k8s-master ~l# cd /root/rook/deploy/examples/csi/cephfs
[root@k8s-master cephfs]# kubectl create -f storageclass.yaml

之后将 PVc 的 storageclassName 设置成 rook-cephfs 即可创建共享文件类型的存储(指向块存储的 storageclass 即为创建块存储),可以供多个 Pod 共享数据。

3.挂载测试

创建一个 pod 挂载测试

[root@k8s-master ~]# cd /root/rook/deploy/examples/csi/cephfs

#rook 提供了此测试样例

[root@k8s-master cephfs]# cat kube-registry.yaml

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: cephfs-pvc
  namespace: kube-system
spec:
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 1Gi
  storageClassName: rook-cephfs
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: kube-registry
  namespace: kube-system
  labels:
    k8s-app: kube-registry
    kubernetes.io/cluster-service: "true"
spec:
  replicas: 3
  selector:
    matchLabels:
      k8s-app: kube-registry
  template:
    metadata:
      labels:
        k8s-app: kube-registry
        kubernetes.io/cluster-service: "true"
    spec:
      containers:
        - name: registry
          image: registry:2
          imagePullPolicy: Always
          resources:
            limits:
              cpu: 100m
              memory: 100Mi
          env:
            # Configuration reference: https://docs.docker.com/registry/configuration/
            - name: REGISTRY_HTTP_ADDR
              value: :5000
            - name: REGISTRY_HTTP_SECRET
              value: "Ple4seCh4ngeThisN0tAVerySecretV4lue"
            - name: REGISTRY_STORAGE_FILESYSTEM_ROOTDIRECTORY
              value: /var/lib/registry
          volumeMounts:
            - name: image-store
              mountPath: /var/lib/registry
          ports:
            - containerPort: 5000
              name: registry
              protocol: TCP
          livenessProbe:
            httpGet:
              path: /
              port: registry
          readinessProbe:
            httpGet:
              path: /
              port: registry
      volumes:
        - name: image-store
          persistentVolumeClaim:
            claimName: cephfs-pvc
            readOnly: false

[root@k8s-master cephfs]# kubectl create -f kube-registry.yaml

此时一共创建了3个Pod,这3个 Pod 共用一个存储,并都挂载到了/var/1ib/registry,该目录中的数据由3个容器共享。

七、PVC 扩容

1.扩容块存储

(1)查看当前容量
[root@k8s-master ~l# kubectl get pvc
(2)扩容

保存退出后会同步更新

(3)查看 PVC 修改结果

扩容有一定的延迟,等待一小会,即可看到扩容结果。

[root@k8s-master ~]# kubectl get pvc
(4)查看PV扩容结果
(5)查看Ceph DashBoard
(6)查看容器中的扩容结果

2.扩容文件共享型PVC

(1)查看之前创建的文件共享型PVC
(2)修改大小

之前是1G,此处改为2G

保存退出后会自动更新

(3)查看修改后的 PVC 大小
[root@k8s-master ~]# kubectl get pvc -n kube-system
(4)查看修改后的 PV 的大小
(5)查看容器中的扩容结果

八、PVC快照

PVC快照功能和使用云服务器或者虚拟机的快照功能类似,可以针对存储某一刻的状态进行一个快照,无论数据出现严重丢失或者其他情况,都可以回滚数据。

1.创建snapshotclass

Snapshotclass 是创建快照的类。

[root@k8s-master ~]# cd /root/rook/deploy/examples/csi/rbd
[root@k8s-master rbd]# kubectl create -f snapshotclass.yaml

2.创建快照

首先在之前创建的 MySQL 容器中创建一个文件夹,并创建一个文件。

(1)查看之前创建的 MySQL
(2)登录MySQL容器创建测试用文件
(3)修改snapshot.yaml 文件

指定为哪个 PVC 创建快照

[root@master rbd]# vim snapshot.yaml

---
apiVersion: snapshot.storage.k8s.io/v1
kind: VolumeSnapshot
metadata:
  name: rbd-pvc-snapshot
spec:
  volumeSnapshotClassName: csi-rbdplugin-snapclass
  source:
    persistentVolumeClaimName: mysql-pv-claim
(4)创建快照
[root@k8s-master rbd]# kubectl create -f snapshot.yaml
(5)查看快照结果
[root@k8s-master rbdl# kubectl get volumesnapshot

3.恢复快照

(1)使用快照恢复数据

备注:

storageclassName:rook-ceph-block

dataSource:快照名称

storage:20Gi 大小不能小于原来的值

(2)执行恢复动作
[root@k8s-master rbd]# kubectl create -f pvc-restore.yaml
(3)查看结果

4.检查快照的数据

(1)创建容器

创建一个容器,挂载用快照恢复的PVC,并查看里面我们创建的文件,

[root@k8s-master rbdl# vim restore-check-snapshot-rbd.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: check-snapshot-restore
spec:
  selector:
    matchLabels:
      app: check 
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        app: check 
    spec:
      containers:
      - image: alpine:3.8
        name: check
        command:
        - sh
        - -c
        - sleep 36000
        volumeMounts:
        - name: check-mysql-persistent-storage
          mountPath: /mnt
      volumes:
      - name: check-mysql-persistent-storage
        persistentVolumeClaim:
          claimName: rbd-pvc-restore 

[root@k8s-master rbd]# kubectl create -f restore-check-snapshot-rbd.yaml
(2)查看结果

九、PVC 克隆

和虚拟机类似,PVC也支持克隆,可以基于某个PVC 复制出一个一模一样数据的新的 PVC。

1.创建克隆

[root@k8s-master rbd]# pwd
/root/rook/deploy/examples/csi/rbd

注意:

datasource 的 name 是被克隆的 PVC 的名字,在此是 mysql-pv-claim

StorageclassName 是新建的PVC的Storageclass 名称

storage 大小不能小于之前的 PVC 的大小

2.开始克隆

[root@k8s-master rbd]# kubectl create -f pvc-clone.yaml
相关推荐
Karoku0667 小时前
【k8s集群应用】kubeadm1.20高可用部署(3master)
运维·docker·云原生·容器·kubernetes
探索云原生12 小时前
在 K8S 中创建 Pod 是如何使用到 GPU 的: nvidia device plugin 源码分析
ai·云原生·kubernetes·go·gpu
启明真纳12 小时前
elasticache备份
运维·elasticsearch·云原生·kubernetes
会飞的土拨鼠呀15 小时前
chart文件结构
运维·云原生·kubernetes
Hello Dam19 小时前
面向微服务的Spring Cloud Gateway的集成解决方案:用户登录认证与访问控制
spring cloud·微服务·云原生·架构·gateway·登录验证·单点登录
power-辰南20 小时前
Zookeeper 底层原理解析
分布式·zookeeper·云原生
power-辰南20 小时前
Zookeeper常见面试题解析
分布式·zookeeper·云原生
Cairry.1 天前
WatchAlert - 开源多数据源告警引擎
云原生·开源·prometheus
会飞的土拨鼠呀1 天前
Kubernetes 是什么?
云原生·容器·kubernetes
向阳逐梦2 天前
开源云原生数据仓库ByConity ELT 的测试体验
数据仓库·云原生·开源