在一台机器上搭建一体化 Ceph 存储集群

概述

Ceph 是一个开源的软件定义存储平台,它在单个分布式计算机集群上实现对象存储,并提供对象级、块级和文件级存储的三合一接口。Ceph 存储集群由 Ceph 监视器、Ceph 管理器、Ceph 元数据服务器和 OSD 组成,它们协同工作来存储和复制数据,供应用程序、Ceph 用户和 Ceph 客户端使用。Ceph 还提供了使用 PostgreSQL 来利用网络存储的选项。

在这篇文章中,我将指导你通过一个简单的过程在单台机器上搭建一个一体化的 Ceph 存储集群,这样你就可以使用这个设置来运行简单的与存储相关的实验性开发或测试。

搭建 Ceph 存储集群

一个可用于生产环境的 Ceph 存储集群应该包含所有必要的组件以正确管理存储,但这篇博客文章旨在提供一个简单的设置,让开发人员能够快速体验网络存储集群。

搭建基础环境

在本节中,我使用了一台在 VirtualBox 上运行的 CentOS 7 虚拟机,并添加了三个虚拟硬盘(VHD)。这台虚拟机的存储设置如下图所示:

登录到 CentOS 后,通过运行以下命令添加一个名为 ceph 的新用户:

shell 复制代码
$ sudo useradd -d /home/ceph -m ceph
$ sudo passwd ceph
$ echo "ceph ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/ceph
$ sudo chmod 0440 /etc/sudoers.d/ceph
$ su - ceph

然后使用以下命令安装基本软件包。Docker 用作容器,NTP 用于同步时钟:

ruby 复制代码
$ sudo yum update
$ sudo yum install lvm2 docker ntp ntpdate ntp-doc python3

检查状态,确保 Docker 和 NTPD 都正常运行:

lua 复制代码
$ sudo systemctl status ntpd
$ sudo systemctl status docker

搭建集群监视器

有许多工具可用于管理 Ceph 存储集群,但我们将使用简单的 cephadm 作为我们的管理工具。

首先,切换到主目录并通过以下命令下载 cephadm:

ruby 复制代码
$ cd ~
$ curl --silent --remote-name --location https://github.com/ceph/ceph/raw/octopus/src/cephadm/cephadm
$ chmod +x cephadm

接下来,添加 Octopus 版本的仓库并安装 cephadm:

shell 复制代码
$ sudo ./cephadm add-repo --release octopus
$ sudo ./cephadm install

现在,使用 cephadm 引导程序在 Ceph 存储集群中设置第一个监视器守护进程。将 192.168.0.134 替换为你实际的服务器 IP 地址。我们将使用简单的用户名和密码 admin/password 来简化设置,否则 cephadm 会生成一个随机密码,并要求你在首次登录时更改它。

css 复制代码
$ sudo ./cephadm bootstrap --mon-ip 192.168.0.134 --dashboard-password-noupdate --initial-dashboard-user admin --initial-dashboard-password password

如果一切顺利运行,你应该会看到类似以下的一些消息。

yaml 复制代码
Ceph Dashboard is now available at:

         URL: https://localhost.localdomain:8443/
        User: admin
    Password: password

You can access the Ceph CLI with:

    sudo ./cephadm shell --fsid 1117491a-ca74-11ed-87fc-080027a1115e -c /etc/ceph/ceph.conf -k /etc/ceph/ceph.client.admin.keyring

Please consider enabling telemetry to help improve Ceph:

    ceph telemetry on

For more information see:

    https://docs.ceph.com/docs/master/mgr/telemetry/

设置好集群监视器后,使用 Web 浏览器登录并检查当前状态。通常会显示如下所示的仪表板:

你也可以安装一些常用工具,通过命令行检查 Ceph 存储集群:

ruby 复制代码
$ sudo cephadm install ceph-common

然后,使用以下命令检查状态,你应该会看到类似以下的输出:

yaml 复制代码
$ sudo ceph status
  cluster:
    id:     1117491a-ca74-11ed-87fc-080027a1115e
    health: HEALTH_WARN
            OSD count 0 < osd_pool_default_size 3

  services:
    mon: 1 daemons, quorum localhost.localdomain (age 9m)
    mgr: localhost.localdomain.trwhwk(active, since 8m)
    osd: 0 osds: 0 up, 0 in

  data:
    pools:   0 pools, 0 pgs
    objects: 0 objects, 0 B
    usage:   0 B used, 0 B / 0 B avail
    pgs:

搭建对象存储设备

如你在 ceph status 中所见,我们的这个集群中只有一个监视器在运行,但有 0 个 osd(对象存储设备)。在向这个存储集群添加对象存储设备之前,让我们使用 lsblk 检查当前的磁盘状态。

arduino 复制代码
$ lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda               8:0    0   80G  0 disk
├─sda1            8:1    0    1G  0 part /boot
└─sda2            8:2    0   79G  0 part
  ├─centos-root 253:0    0 49.8G  0 lvm  /
  ├─centos-swap 253:1    0    5G  0 lvm  [SWAP]
  └─centos-home 253:2    0 24.3G  0 lvm  /home
sdb               8:16   0   30G  0 disk
sdc               8:32   0   30G  0 disk
sdd               8:48   0   30G  0 disk
sr0              11:0    1 1024M  0 rom

上面是 lsblk 命令的输出,它显示了系统当前的磁盘状态。它列出了所有可用的块设备,包括它们的名称、主要和次要设备编号、大小、类型以及挂载点(如果有的话)。在这种情况下,我们可以看到有三个额外的磁盘(sdb、sdc 和 sdd)尚未被使用。

接下来,让我们使用 Ceph 设备管理命令检查这三个磁盘是否可以添加。

css 复制代码
$ sudo ceph orch device ls
Hostname               Path      Type  Serial               Size   Health   Ident  Fault  Available
localhost.localdomain  /dev/sdb  hdd   VBc50561fa-4658471a  32.2G  Unknown  N/A    N/A    Yes
localhost.localdomain  /dev/sdc  hdd   VBc775712c-0dbb8b17  32.2G  Unknown  N/A    N/A    Yes
localhost.localdomain  /dev/sdd  hdd   VB4dfb0df0-a8f28653  32.2G  Unknown  N/A    N/A    Yes

这三个磁盘在"Available"列中都显示为"是",表明我们可以将它们添加到存储集群中。要将这些设备添加到集群中,我们需要运行以下命令:

arduino 复制代码
$ sudo ceph orch apply osd --all-available-devices
Scheduled osd.all-available-devices update...

输出表明设备正在处理中,这可能需要一些时间。请等待几秒钟或几分钟,然后检查 ceph 集群状态。

yaml 复制代码
$ sudo ceph status
  cluster:
    id:     1117491a-ca74-11ed-87fc-080027a1115e
    health: HEALTH_OK

  services:
    mon: 1 daemons, quorum localhost.localdomain (age 12m)
    mgr: localhost.localdomain.trwhwk(active, since 11m)
    osd: 3 osds: 3 up (since 20s), 3 in (since 20s); 1 remapped pgs

  data:
    pools:   1 pools, 1 pgs
    objects: 0 objects, 0 B
    usage:   3.0 GiB used, 87 GiB / 90 GiB avail
    pgs:     1 active+undersized+remapped

  progress:
    Rebalancing after osd.1 marked in (18s)
      [............................]

现在我们可以看到,3 个 OSD 已添加到这个 Ceph 存储集群中。如果我们再次运行"lsblk"命令,应该会看到类似以下的输出,表明 sdb、sdc 和 sdd 现在正被 Ceph 存储集群使用。

lua 复制代码
$ lsblk
NAME                                                                                                  MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                                                                                     8:0    0   80G  0 disk
├─sda1                                                                                                  8:1    0    1G  0 part /boot
└─sda2                                                                                                  8:2    0   79G  0 part
  ├─centos-root                                                                                       253:0    0 49.8G  0 lvm  /
  ├─centos-swap                                                                                       253:1    0    5G  0 lvm  [SWAP]
  └─centos-home                                                                                       253:2    0 24.3G  0 lvm  /home
sdb                                                                                                     8:16   0   30G  0 disk
└─ceph--7062ccde--bf6b--4252--ba0a--a66e02c0839d-osd--block--5ca780b0--b4a3--49c3--b58d--3aba26b88d14 253:3    0   30G  0 lvm
sdc                                                                                                     8:32   0   30G  0 disk
└─ceph--c38c357f--71ef--4641--acd4--8cb7bdf53520-osd--block--ae0bc25d--299e--45f0--af4f--890263970f1d 253:4    0   30G  0 lvm
sdd                                                                                                     8:48   0   30G  0 disk
└─ceph--debbc90a--860a--4e8f--9e93--a3c6e48e7994-osd--block--ccd3d288--f87f--4fa3--983a--102d838ea2a1 253:5    0   30G  0 lvm
sr0

如果你的 Ceph 存储集群的健康状态仍然处于 HEALTH_WARN 状态,你可以尝试运行本文中描述的命令来解决该问题。

解决问题后,你的 ceph 存储集群应该处于 HEALTH_OK 状态。

yaml 复制代码
$ sudo ceph status
  cluster:
    id:     1117491a-ca74-11ed-87fc-080027a1115e
    health: HEALTH_OK

  services:
    mon: 1 daemons, quorum localhost.localdomain (age 17m)
    mgr: localhost.localdomain.trwhwk(active, since 16m)
    osd: 3 osds: 3 up (since 5m), 3 in (since 5m)

  data:
    pools:   1 pools, 1 pgs
    objects: 0 objects, 0 B
    usage:   3.0 GiB used, 87 GiB / 90 GiB avail
    pgs:     1 active+clean

本地测试 Ceph 存储集群

搭建 Ceph 存储集群主要是为了网络存储场景,但我们稍后会考虑块、对象和文件系统的不同访问网络场景。在这里,我们将创建一个 Cephfs 文件系统,将其本地挂载,并执行一个简单的测试。

要创建 Cephfs 文件系统,请运行以下命令并进行验证:

ruby 复制代码
$ sudo ceph fs volume create cephfs
$ sudo ceph fs volume ls
[
    {
        "name": "cephfs"
    }
]

要在本地挂载 cephfs 文件系统,

  1. 通过运行以下命令为 cephfs 创建一个密钥:
ini 复制代码
$ sudo ceph fs authorize cephfs client.user / rw | sudo tee /etc/ceph/ceph.client.user.keyring
[client.user]
    key = AQCcFR5kLAgrERAAdfgLAUqdGvRxghJrLUkBMw==

此命令将创建一个密钥并将其写入密钥环文件。

  1. 通过运行以下命令挂载 cephfs 文件系统:
ini 复制代码
$ sudo mount -t ceph :/ /media/cephfs -o name=user,secret=AQCcFR5kLAgrERAAdfgLAUqdGvRxghJrLUkBMw==

此命令将把 cephfs 文件系统挂载到 /media/cephfs 目录。

  1. 通过运行以下命令将挂载目录的所有权更改为 ceph:ceph:
shell 复制代码
$ sudo chown -R ceph:ceph /media/cephfs/
  1. 在挂载目录中创建一个文件并验证其内容:
shell 复制代码
$ echo "hello ceph storage cluster" > /media/cephfs/hello.txt
$ cat /media/cephfs/hello.txt
hello ceph storage cluster

此时,你可以尝试使用类似以下的一些命令在另一台 CentOS 机器上挂载这个 Ceph 存储集群。不过,我们将在下一篇博客文章中讨论这个主题。

javascript 复制代码
ssh ceph@192.168.0.134 'sudo ceph-authtool -p /etc/ceph/ceph.client.admin.keyring' > client.admin.key
sudo mount -t ceph 192.168.0.134:/ /mnt/cephfs -o name=admin,secretfile=client.admin.key

总结

在这篇博客文章中,我们介绍了在单个虚拟机上搭建简单的 Ceph 存储集群并在 Cephfs 存储集群上执行基本测试的过程。我们创建了一个 Ceph 用户,设置了 Ceph 监视器和管理器,添加了对象存储设备,并创建了一个 Cephfs 文件系统。然后我们在本地挂载了 Cephfs 文件系统,创建了一个文件,并读取其内容以验证挂载是否成功。在未来的文章中,我们将探索更高级的用例,例如使用 Cephfs 文件系统在一体化 Ceph 存储集群上运行 PostgreSQL。

相关推荐
云雾J视界3 小时前
开源协作2.0:GitHub Discussions+AI重构开发者社区的知识共创生态
人工智能·开源·github·discussions·知识共创·社区知识·ai重构
兆龙电子单片机设计3 小时前
【STM32项目开源】STM32单片机智能家居控制系统
stm32·单片机·物联网·开源·毕业设计·智能家居
一路阳光8514 小时前
开源鸿蒙5.0正式发布 底座及配套能力快速稳定成熟
华为·开源·harmonyos
IvorySQL4 小时前
PostgreSQL 18 中国贡献者经验分享:开源参与的四点建议
数据库·postgresql·开源
云创智城-yuncitys6 小时前
城市级充电项目高性价比落地方案:源码级交付 + 设备直供,全文档 + 永久保障(已开源)
开源·城市级充电系统·充电桩二开
ajassi20006 小时前
开源 Linux 服务器与中间件(六)服务器--Lighttpd
linux·服务器·开源
ajassi20008 小时前
开源 Linux 服务器与中间件(七)数据库--MySQL
linux·服务器·数据库·ubuntu·开源
NocoBase10 小时前
11 个在 GitHub 上最受欢迎的开源无代码 AI 工具
低代码·ai·开源·github·无代码·ai agent·airtable·内部工具·app builder
HelloGitHub13 小时前
DIY ChatGPT 一周狂揽 27k Star「GitHub 热点速览」
开源·github