Ceph: vdbench 测试ceph存储rbd块设备

目录

2.搭建ceph

3.vdbench环境


准备

笔记本架构:x86 i5 8 代

虚拟化软件:virtualBox 7.0

操作系统:CentOS Linux release 7.9.2009 (Core)

测试虚拟机操作系统:CentOS Linux release 7.9.2009 (Core)

|-----------|---------------|----------------|
| 节点 | 外部网络 | 内部网络 |
| Server205 | 172.17.11.205 | 192.168.56.101 |
| Server206 | 172.17.11.206 | 192.168.56.108 |
| Server207 | 172.17.11.207 | 192.168.56.109 |

节点之间做主机名映射

为了省事,关闭防火墙

节点之间做ssh免密互信,注意每个节点都执行以下命令:

Ssh-keygen -t rsa

Ssh-copy-id server20*

每个节点检测java环境喝pip环境,如无请安装

Yum install java -y

Yum install -y python-pip

节点间同步时间,每个节点都执行:

Yum install ntpdate

为了省事,直接同步aliyun的时间,每个节点执行:

ntpdate ntp.aliyun.com

思想准备:

每个节点上的数据盘符和数据盘数量尽量保持一致

三节点上的3副本上创建的块存储,在默认情况下只能有3分之一的容量可用

2.搭建ceph

Ceph版本:2.0.1

Ceph工作流程概要:

最小的存储单元是object,object分组为pg,pg是ceph分布式核心设计,因为其可以在离客户端最近的osd上进行注册。Osd是ceph的核心程序是最基础的请求响应的进程服务,osd将注册在集群cluster map中,客户端通过访问map获取离自己最接近的osd位置,然后与其建立直接通信,最终在数据网络中形成客户端到具体服务进程的P2P的请求相应模式。客户端和osd是多对多关系,osd分布在不同的宿主机上,通过crush算法进行数据的位置分配,并通过ec,通过多副本和EC校验完成数据的可靠性和一致性。

ceph是高性能,高兼容性的统一存储,提供对象、块、文件的存储。本次测试主要针对块设备。块设备在服务器中体现为rbd进程服务,在集群创建好之后,首先需要创建一个资源池,将节点上的数据盘进行接管,然后通过rbd进程进一步将其划分为不同的块文件,最终将rbd挂载在不同的文件目录下完成云硬盘的创建,保障虚拟机磁盘生效和运行。

本册ceph搭建、以及存储池的创建,rbd的创建请参考"aa一叶知秋aa"博主的连接,其中有我时间过程中的问题和知识点交流过程,可以参考:

Ceph分布式存储系统的介绍及详细安装部署过程:详细实战版(保姆级)_存储部署-CSDN博客

Ceph----RBD块存储的使用:详细实践过程实战版-CSDN博客

Ceph的监控工具Dashboard安装部署,详细实战过程_ceph dashboard启动-CSDN博客

  1. RBD分布状态,三个节点都应如下现象是正确的

3.vdbench环境

下载vdbench:

解压到每个节点并安装固定的目录下

这里提供vdbench的学习网址一篇:

【ceph】vdbench的使用教程------裸盘测试和文件系统测试vdbanch - bdy - 博客园 (cnblogs.com)

在这里分享一下我的test配置文件

  1. 附带配置文件 执行vdbench

以下是最终分析结果

相关推荐
一名路过的小码农1 天前
ceph 18.2.4二次开发,docker镜像制作
ceph·docker·容器
墨水\\4 天前
分布式----Ceph应用(下)
分布式·ceph
大G哥5 天前
基于K8S1.28.2实验rook部署ceph
java·ceph·云原生·容器·kubernetes
石兴稳6 天前
Ceph PG(归置组)的状态说明
ceph
石兴稳6 天前
Ceph层次架构分析
ceph
活老鬼6 天前
Ceph分布式存储
linux·运维·服务器·分布式·ceph
石兴稳8 天前
Ceph client 写入osd 数据的两种方式librbd 和kernel rbd
linux·ceph
石兴稳8 天前
Ceph的pool有两种类型
ceph
运维小文8 天前
ceph的集群管理
ceph·对象存储·存储·ceph集群管理·ceph节点管理
石兴稳9 天前
iSCSI 和SCSI的概述
ceph