28.OpenStack块存储管理-cinder

文章目录

OpenStack块存储管理-cinder

cinder的配置文件位置:/etc/cinder

cinder的日志文件位置:/var/log/cinder

openstack存储类型

OpenStack持久化存储简介

Cinder作用

Cinder在虚拟机与具体存储设备之间引入了一层"逻辑存储卷"的抽象,Cinder本身不是一种存储技术,并 没有实现对块设备的实际管理和服务

Cinder只是提供了一个中间的抽象层,为后端不同的存储技术,提供了统一的接口

不同的块设备服务厂商在Cinder中以驱动的形式实现上述接口与OpenStack进行整合

Cinder架构

  • Cinder Client封装Cinder提供的rest接口,以CLI形式供用户使用。
  • Cinder API对外提供rest API,对操作需求进行解析,对API进行路由寻找相应的处理方法。包含卷的增 删改查(包括从源卷、镜像、快照创建)、快照增删改查、备份、volume type管理、挂载/卸载(Nova 调用)等。
  • Cinder Scheduler负责收集backend上报的容量、能力信息,根据设定的算法完成卷到指定cindervolume的调度。
  • Cinder Volume多节点部署,使用不同的配置文件、接入不同的backend设备,由各存储厂商插入 driver代码与设备交互完成设备容量和能力信息收集、卷操作。
  • Cinder Backup实现将卷的数据备份到其他存储介质(目前SWIFT/Ceph/TSM提供了驱动)。
  • SQL DB提供存储卷、快照、备份、service等数据,支持MySQL、PG、MSSQL等SQL数据库

查看控制节点cinder进程:

bash 复制代码
[root@controller ~ 11:15:54]# ps -e |grep cinder
   1746 ?        00:01:06 cinder-volume
   1747 ?        00:01:12 cinder-api
   1760 ?        00:01:03 cinder-backup
   1776 ?        00:00:33 cinder-schedule
   3160 ?        00:00:28 cinder-backup
   3259 ?        00:00:39 cinder-volume
   3271 ?        00:00:23 cinder-api
   3272 ?        00:00:01 cinder-api
   3273 ?        00:00:01 cinder-api
   3277 ?        00:00:01 cinder-api

查看cinder-volume默认支持的存储设备:

bash 复制代码
[root@controller ~ 11:49:06]# cd /usr/lib/python3.6/site-packages/cinder/volume/drivers/
[root@controller drivers 11:50:06]# ls
datera         huawei        lenovo         nfs.py       rbd.py        storpool.py      windows
dell_emc       ibm           linstordrv.py  nimble.py    remotefs.py   stx              zadara.py
fujitsu        infinidat.py  lvm.py         prophetstor  rsd.py        synology
fusionstorage  infortrend    macrosan       pure.py      san           veritas_access
hedvig         __init__.py   nec            __pycache__  sandstone     veritas_cnfs.py
hitachi        inspur        netapp         qnap.py      solidfire.py  vmware
hpe            kaminario     nexenta        quobyte.py   spdk.py       vzstorage.py

Cinder架构说明

  • Cinder默认使用LVM(Logical Volume Manager)作为后端存储(Backend Storage),而LVM通过在 操作系统与物理存储资源之间引入逻辑卷(Logical Volume)的抽象来解决传统磁盘分区管理工具的问 题。
  • LVM将众多不同的物理存储资源(物理卷、Physical Volume,如磁盘分区)组成卷组。LVM从卷组中 创建一个逻辑卷,然后将ext3、ReiserFS等文件系统安装在这个逻辑卷上。
  • 除了LVM,目前Cinder已经以驱动的形式支持众多存储技术或存储厂商的设备作为后端存储,如SAN (Storage Area Network)、Ceph、Sheepdog,以及EMC、华为等厂商的设备。

实验环境后端存储就是LVM(安装时决定的):

bash 复制代码
[root@controller ~]# vim answers.txt
536 CONFIG_CINDER_BACKEND=lvm
544 CONFIG_CINDER_VOLUMES_CREATE=y
547 CONFIG_CINDER_VOLUME_NAME=cinder-volumes
554 CONFIG_CINDER_VOLUMES_SIZE=20G

实验环境查看

bash 复制代码
[root@controller drivers 11:50:10]# vgdisplay cinder-volumes 
  Configuration setting "snapshot_autoextend_percent" invalid. It's not part of any section.
  Configuration setting "snapshot_autoextend_threshold" invalid. It's not part of any section.
  --- Volume group ---
  VG Name               cinder-volumes
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  6
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               1
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               <20.60 GiB
  PE Size               4.00 MiB
  Total PE              5273
  Alloc PE / Size       5020 / <19.61 GiB
  Free  PE / Size       253 / 1012.00 MiB
  VG UUID               S5M6gF-41r7-8D1E-3nd8-qe36-Jh3B-9Znylb

Cinder架构部署:以SAN存储为例

  • Cinder-api,Cinder-Scheduler,Cinder-Volume可以选择部署到一个节点上,也可以分别部署
  • API采用AA模式,HAproxy作为LB,分发请求到多个Cinder API
  • Scheduler也采用AA模式,由rabbitmq以负载均衡模式向3个节点分发任务,并同时从rabbitmq收 取Cinder volume上报的能力信息,调度时,scheduler通过在DB中预留资源从而保证数据一致性
  • Cinder Volume也采用AA模式,同时上报同一个backend容量和能力信息,并同时接受请求进行处理
  • RabbitMQ,支持主备或集群
  • MySQL,支持主备或集群

Cinder-api

Cinder API

  • 检查参数合法性(用户输入,权限,资源是否存在等)
  • 准备创建的参数字典,预留和提交配额
  • 在数据库中创建对应的数据记录
  • 通过消息队列将请求和参数发送到Scheduler

查看cinder API服务状态:

bash 复制代码
[root@controller ~ 14:30:52]# systemctl status openstack-cinder-api.service
● openstack-cinder-api.service - OpenStack Cinder API Server
   Loaded: loaded (/usr/lib/systemd/system/openstack-cinder-api.service; enabled; vendor preset: disabled)
   Active: active (running) since Wed 2025-10-29 14:17:02 CST; 13min ago
 Main PID: 20009 (cinder-api)
    Tasks: 5 (limit: 48806)
   Memory: 290.1M
   CGroup: /system.slice/openstack-cinder-api.service
           ├─20009 /usr/bin/python3 /usr/bin/cinder-api --config-file /usr/share/cinder/cinder-dist.conf --co>
           ├─20031 /usr/bin/python3 /usr/bin/cinder-api --config-file /usr/share/cinder/cinder-dist.conf --co>
           ├─20032 /usr/bin/python3 /usr/bin/cinder-api --config-file /usr/share/cinder/cinder-dist.conf --co>
           ├─20033 /usr/bin/python3 /usr/bin/cinder-api --config-file /usr/share/cinder/cinder-dist.conf --co>
           └─20034 /usr/bin/python3 /usr/bin/cinder-api --config-file /usr/share/cinder/cinder-dist.conf --co>

Oct 29 14:17:02 controller systemd[1]: Stopped OpenStack Cinder API Server.
Oct 29 14:17:02 controller systemd[1]: Started OpenStack Cinder API Server.

Cinder-scheduler

和Nova Scheduler类似,Cinder Scheduler也是经过Filter筛选符合条件的后端,然后使用Weigher计算 后端进行权重排序,最终选择出最合适的后端存储

Cinder Scheduler服务

提取接收到的请求参数

通过配置的filter和输入参数对后端进行过滤

Availability_zone_filter

Capacity_filter

Capabilities_filter

Affinity_filter(SameBackendFilter/DifferentBackendFilter)

......

Weigher计算后端进行权重

CapacityWeigher/AllocatedCapacityWeigher

ChanceWeigher

GoodnessWeigher

......

选取最优的Backend并通过消息队列将请求发送到指定的后端

查看配置文件:

bash 复制代码
[root@controller ~ 14:14:58]# cd /etc/cinder/
[root@controller cinder 14:15:21]# ls
api-paste.ini  cinder.conf  resource_filters.json  rootwrap.conf  rootwrap.d  volumes
[root@controller cinder 14:15:24]# vim cinder.conf 
 592 #scheduler_default_filters = 
AvailabilityZoneFilter,CapacityFilter,CapabilitiesFilter
 593
 595 #scheduler_default_weighers = CapacityWeigher
 596
 601 # Default scheduler driver to use (string value)
 602 #scheduler_driver = cinder.scheduler.filter_scheduler.FilterScheduler

AvailabilityZoneFilter

为提高容灾性和提供隔离服务,可以将存储节点和计算节点划分到不同的 Availability Zone 中。例如把 一个机架上的机器划分在一个 Availability Zone 中。OpenStack 默认有一个命名为"nova"的 Availability Zone,所有的节点初始都是放在"nova"中。用户可以根据需要创建自己的 Availability Zone。

创建 Volume 时,用户会指定 Volume 的大小。CapacityFilter 的作用是将存储空间不能满足 Volume 创 建需求的存储节点过滤掉。

配置cinder配置文件cinder.conf

bash 复制代码
[root@controller ~ 14:14:58]# cd /etc/cinder/
[root@controller cinder 14:15:21]# ls
api-paste.ini  cinder.conf  resource_filters.json  rootwrap.conf  rootwrap.d  volumes
[root@controller cinder 14:15:24]# vim cinder.conf
592 scheduler_default_filters = 
AvailabilityZoneFilter,CapacityFilter,CapabilitiesFilter
#该配置文件的节点的AZ设置为az1
395 storage_availability_zone=az1
#创建卷时,不指定az默认使用nova AZ
401 default_availability_zone=nova

[root@controller cinder 14:16:35]# systemctl restart openstack-cinder*

验证AZ实验:

bash 复制代码
#cinder.conf配置文件配置401 default_availability_zone=nova,创建卷时不指定AZ则使用nova AZ,而该节点属于az1 AZ,创建失败
[root@controller ~ 14:17:59]# source keystonerc_admin 
[root@controller ~(keystone_admin)]# openstack volume create --size 1 volume1
Availability zone 'nova' is invalid. (HTTP 400) (Request-ID: req-38d5636a-8517-45af-80c1-96f65814cc7e)

#cinder配置文件配置395 storage_availability_zone=az1,该节点属于AZ az1节点,创建AZ az2卷,被AvailabilityZoneFilter过滤
[root@controller ~(keystone_admin)]# openstack volume create --size 1 --availability-zone az2 volume1
Availability zone 'az2' is invalid. (HTTP 400) (Request-ID: req-49ada81e-b4c2-4199-8be6-d652183915c0)

#cinder配置文件配置395 storage_availability_zone=az1,该节点属于AZ az1节点,创建AZ az1卷,创建成功
[root@controller ~(keystone_admin)]# openstack volume create --size 1 --availability-zone az1 volume1
+---------------------+--------------------------------------+
| Field               | Value                                |
+---------------------+--------------------------------------+
| attachments         | []                                   |
| availability_zone   | az1                                  |
| bootable            | false                                |
| consistencygroup_id | None                                 |
| created_at          | 2025-10-29T06:19:58.284343           |
| description         | None                                 |
| encrypted           | False                                |
| id                  | e3802a90-bc42-4bab-8614-ffa5f5f133f8 |
| migration_status    | None                                 |
| multiattach         | False                                |
| name                | volume1                              |
| properties          |                                      |
| replication_status  | None                                 |
| size                | 1                                    |
| snapshot_id         | None                                 |
| source_volid        | None                                 |
| status              | creating                             |
| type                | iscsi                                |
| updated_at          | None                                 |
| user_id             | ef2e98805d884acba8609fef1acad5b9     |
+---------------------+--------------------------------------+

CapacityFilter

创建 Volume 时,用户会指定 Volume 的大小。CapacityFilter 的作用是将存储空间不能满足 Volume 创 建需求的存储节点过滤掉。

CapabilitiesFilter

不同的 Volume Provider 有自己的特性(Capabilities),比如是否支持 thin provision 等。Cinder 允 许用户创建 Volume 时通过 Volume Type 指定需要的 Capabilities

web页面 项目->卷->卷->创建卷

创建卷的时候,卷类型指定为iscsi,那么后端使用的是LVM,为何?

由卷类型,扩展规格决定


接下来查看配置文件:

bash 复制代码
[root@controller ~(keystone_admin)]# vim /etc/cinder/cinder.conf
5261 [lvm]
5262 volume_backend_name=lvm
5263 volume_driver=cinder.volume.drivers.lvm.LVMVolumeDriver
5264 target_ip_address=192.168.108.10
5265 target_helper=lioadm
5266 volume_group=cinder-volumes
5267 volumes_dir=/var/lib/cinder/volumes 

Cinder-volume

Cinder Volume服务

  • 提取接收到的请求参数
  • 调用对应的Driver在后端创建实际的卷
  • 使用Driver返回的模型更新数据库中的记录

Cinder挂载流程

挂卷流程: 挂卷是通过Nova和Cinder的配合最终将远端的卷连接到虚拟机所在的Host节点上,并最终 通过虚拟机管理程序映射到内部的虚拟机中

  • Nova调用Cinder API创建卷,传递主机的信息,如hostname,iSCSI initiator name,FC WWPNs。

  • Cinder API将该信息传递给Cinder Volume。

  • Cinder Volume通过创建卷时保存的host信息找到对应的Cinder Driver。

  • Cinder Driver通知存储允许该主机访问该卷,并返回该存储的连接信息(如iSCSI iqn,portal,FC Target WWPN,NFS path等)。

  • Nova调用针对于不同存储类型进行主机识别磁盘的代码( Cinder 提供了brick模块用于参考)实现识别 磁盘或者文件设备。

  • Nova通知Cinder已经进行了挂载。

    虚拟机管理程序映射到内部的虚拟机中

  • Nova调用Cinder API创建卷,传递主机的信息,如hostname,iSCSI initiator name,FC WWPNs。

  • Cinder API将该信息传递给Cinder Volume。

  • Cinder Volume通过创建卷时保存的host信息找到对应的Cinder Driver。

  • Cinder Driver通知存储允许该主机访问该卷,并返回该存储的连接信息(如iSCSI iqn,portal,FC Target WWPN,NFS path等)。

  • Nova调用针对于不同存储类型进行主机识别磁盘的代码( Cinder 提供了brick模块用于参考)实现识别 磁盘或者文件设备。

  • Nova通知Cinder已经进行了挂载。

  • Nova将主机的设备信息传递给hypervisor来实现虚拟机挂载磁盘。

相关推荐
weixin_307779136 小时前
C#程序实现将Teradata的存储过程转换为Azure Synapse Dedicated SQL pool的存储过程
数据库·数据分析·c#·云计算·azure
一个向上的运维者8 小时前
AI重塑云计算与运维:从被动响应到智能自治的进化之路
运维·人工智能·云计算
NebulaData11 小时前
使用Storage Transfer Service 事件驱动型 — 将AWS S3迁移到 GCP Cloud Storage
云计算·aws
weixin_3077791312 小时前
C#程序实现将Teradata的存储过程转换为Amazon Redshift的pgsql的存储过程
数据库·c#·云计算·运维开发·aws
算家云14 小时前
推理成本吞噬AI未来,云计算如何平衡速度与成本的难题?
人工智能·云计算·模型训练·算家云·租算力,到算家云·算家计算
伞啊伞14 小时前
云计算学习(三)——子网划分
学习·云计算
wanhengidc14 小时前
云手机 基于云计算的虚拟手机
运维·服务器·游戏·智能手机·云计算
AKAMAI1 天前
Akamai推出Akamai Inference Cloud (AI推理云),重新定义人工智能的应用场景与实现方式
人工智能·云原生·云计算
bluetata1 天前
Rokid AR眼镜开发入门:构建智能演讲提词器Android应用
android·人工智能·云计算·ar·ai编程