三节点Ceph分布式存储搭建指南

三节点Ceph分布式存储搭建指南

环境准备

  • 三台服务器(节点),建议配置相同硬件(CPU、内存、磁盘)。
  • 每台节点至少一块SSD(用于OSD日志)和多块HDD(用于数据存储)。
bash 复制代码

ceph-deploy install

操作系统:Ubuntu 复制代码
- 所有节点配置SSH免密登录(`ssh-keygen`和`ssh-copy-id`)。  

**配置基础环境**  
在所有节点上执行以下操作:  
1. 修改主机名并更新`/etc/hosts`,确保节点间能通过主机名通信。  
2. 关闭防火墙和SELinux(生产环境需按需调整规则):  
  ```bash
  systemctl stop firewalld
  systemctl disable firewalld
  setenforce 0
  sed -i 's/SELINUX=enforcing/SELINUX=permissive/g' /etc/selinux/config
  1. 安装NTP服务确保时间同步:

    bash 复制代码
    yum install -y ntp || apt-get install -y ntp
    systemctl enable ntpd --now

安装Ceph部署工具

在主管理节点(如ceph-node1)执行:

  1. 添加Ceph仓库并安装ceph-deploy

    bash 复制代码
    wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add -
    echo "deb https://download.ceph.com/debian-{ceph-stable-release}/ $(lsb_release -sc) main" | sudo tee /etc/apt/sources.list.d/ceph.list
    apt-get update && apt-get install -y ceph-deploy

    (CentOS使用yum install -y ceph-deploy

初始化Ceph集群

  1. 创建集群目录并初始化配置:

    bash 复制代码
    mkdir ~/ceph-cluster && cd ~/ceph-cluster
    ceph-deploy new ceph-node1 ceph-node2 ceph-node3
  2. 编辑ceph.conf配置文件,追加以下内容:

    ini 复制代码
    osd_pool_default_size = 3
    osd_pool_default_min_size = 1
    public_network = {你的公共网络CIDR}
    cluster_network = {你的集群网络CIDR}
  3. 安装Ceph软件包到所有节点:

    bash 复制代码
    ceph-deploy install ceph-node1 ceph-node2 ceph-node3

部署Monitor服务

在主节点执行:

bash 复制代码
ceph-deploy mon create-initial
ceph-deploy admin ceph-node1 ceph-node2 ceph-node3

配置OSD存储

  1. 列出所有节点的磁盘:

    bash 复制代码
    ceph-deploy disk zap ceph-node1 /dev/sdb
    ceph-deploy disk zap ceph-node2 /dev/sdb
    ceph-deploy disk zap ceph-node3 /dev/sdb
  2. 创建OSD(假设sdb为数据盘,sdc为日志盘):

    bash 复制代码
    ceph-deploy osd create --data /dev/sdb --journal /dev/sdc ceph-node1
    ceph-deploy osd create --data /dev/sdb --journal /dev/sdc ceph-node2
    ceph-deploy osd create --data /dev/sdb --journal /dev/sdc ceph-node3

验证集群状态

执行以下命令检查集群健康状态:

bash 复制代码
ssh ceph-node1 "ceph -s"

输出中应显示HEALTH_OK,且所有OSD和Monitor均在线。

扩展功能(可选)

  • 部署MDS服务支持CephFS:

    bash 复制代码
    ceph-deploy mds create ceph-node1
  • 创建存储池和块设备:

    bash 复制代码
    ceph osd pool create rbd_pool 128
    rbd create myimage --size 1024 --pool rbd_pool

注意事项

  • 生产环境建议分离public_networkcluster_network以提高性能。
  • OSD日志盘建议使用SSD以降低延迟。
  • 若使用虚拟机测试,确保每节点至少2核CPU和4GB内存。

通过以上步骤,一个基础的Ceph三节点集群即部署完成。后续可根据需求扩展节点或调整CRUSH map优化数据分布。

相关推荐
BUTCHER513 小时前
Kafka多网卡环境配置
分布式·kafka
鸿蒙小白龙13 小时前
openharmony之分布式蓝牙实现多功能场景设备协同实战
分布式·harmonyos·鸿蒙·鸿蒙系统·open harmony
鸿蒙小白龙15 小时前
openharmony之分布式购物车开发实战
分布式·harmonyos·鸿蒙·鸿蒙系统·open harmony
小蜗牛编程实录15 小时前
一文搞懂分布式事务:从理论到实践方案
分布式·后端
鸿蒙小白龙15 小时前
openharmony之分布式相机开发:预览\拍照\编辑\同步\删除\分享教程
分布式·harmonyos·鸿蒙·鸿蒙系统·open harmony
没有bug.的程序员15 小时前
电商系统分布式架构实战:从单体到微服务的演进之路
java·分布式·微服务·云原生·架构·监控体系·指标采集
居7然17 小时前
DeepSeek-7B-chat 4bits量化 QLora 微调
人工智能·分布式·架构·大模型·transformer
失散131 天前
分布式专题——47 ElasticSearch搜索相关性详解
java·分布式·elasticsearch·架构
酷ku的森1 天前
RabbitMQ七种工作模式介绍:
分布式·rabbitmq
qqxhb1 天前
系统架构设计师备考第45天——软件架构演化评估方法和维护
分布式·缓存·系统架构·集群·cdn·单体·已知未知评估