ceph

阿方索3 小时前
分布式·ceph
Ceph 分布式存储存储管理员负责执行以下任务:Ceph 是一款自主研发的、去中心化的、支持千级客户端和几百PB存储的分布式存储系统。
别多香了1 天前
分布式·ceph
ceph分布式存储核心定义:Ceph 是开源、分布式、软件定义存储系统,用于存储海量数据,具备极高可用性、扩展性和易用性。
你什么冠军?2 天前
ceph
Ceph分布式存储核心定义:Ceph 是开源、分布式、软件定义存储,支持对象、块、文件系统三种存储模式,具备高可用、高扩展、去中心化特性,基于 RADOS(可靠自主分布式对象存储)核心架构。 核心组件: MON(监控器):维护集群状态映射,需奇数个节点保障仲裁,端口 6789/3300。 OSD(对象存储设备):存储数据,处理复制、恢复、重平衡,每个 OSD 对应一块存储设备,端口 6800-7300。 MGR(管理器):集群监控、统计,提供 Dashboard(端口 8443),建议部署 2 个保障高可用。 MDS(元数
wniuniu_2 天前
运维·javascript·ceph
ceph运维查看日志这是一个非常专业、非常“运维工程化”的问题,已经不只是“会用 Ceph”,而是 如何做集群级配置对比与审计。 我会给你一套可落地、可自动化、可对比的方法,而不是零散命令。
zwxu_4 天前
ceph·分布式存储
Ceph基础原理分享1、Ceph存储架构2、Radosgw层2.1 Bucket & Object3、Rados层3.1 重要成员
wniuniu_5 天前
网络·ceph
ceph中修改镜像大小问题:你知道ceph中rbd下,如果一个镜像已经被映射到一个块设备,然后已经被挂载了,此时修改镜像的大小(增大或缩小),那么客户端那边通过df -h可以实时看到变化吗,如果取消挂载,再挂载可以看到吗
金海境科技5 天前
服务器·经验分享·分布式·ceph
【服务器数据恢复】H3C华三Ceph分布式存储文件丢失数据恢复案例一:客户信息海南某三甲医院二:案例背景什么是分布式文件系统分布式文件系统(DistributedFile System,DFS)是一种能够在多台计算机之间共享文件存储资源的系统。它将文件存储在多个节点上,这些节点通常是位于不同地理位置的服务器或计算机集群。分布式文件系统的核心目标是提高文件存储的可靠性、可扩展性和性能,同时为用户提供透明的文件访问体验,仿佛文件是存储在单一的本地文件系统中一样。
menggb075 天前
ceph
通过 S3 接口删除 Ceph RGW 对象后,ceph df 使用率不立即减少的原因详解在使用 Ceph 的对象网关(RGW)通过 S3 接口删除大量对象时,删除操作会立即返回成功(因为 bucket index 中的对象条目已被移除或标记为删除),但底层实际数据(存储在 data pool 中的 RADOS 对象)并不会立即被删除。这导致 ceph df 显示的 pool 使用率(RAW USED 或 STORED/USED)不会立刻下降。
wniuniu_5 天前
java·运维·ceph
ceph中的crush map当集群系统变得复杂时,我们往往需要多种策略来存放不同类型的数据;例如,将热数据存放于SSD中,而将冷数据放在HDD中。CRUSH rule就是定义了一种选择策略,Ceph中每个逻辑池都必须对应一条合法的rule才能正常工作。还是以上面链接中的crushmap为例,分析一下rule的具体含义。
wniuniu_5 天前
ceph
ceph的ceph df detail中的max avail可以。你给的信息已经足够把 277 GiB 和 184 GiB 反推出来,而且这两个数基本就是按 “满盘阈值(full ratio)之前还能用的 RAW 空间 / 副本数” 算出来的。
金海境科技6 天前
服务器·经验分享·分布式·ceph
【服务器数据恢复】数据中心私有云Ceph分布式集群文件丢失数据恢复案例一:客户信息内蒙古某警务云数据中心二:案例背景什么是分布式文件系统分布式文件系统(DistributedFile System,DFS)是一种能够在多台计算机之间共享文件存储资源的系统。它将文件存储在多个节点上,这些节点通常是位于不同地理位置的服务器或计算机集群。分布式文件系统的核心目标是提高文件存储的可靠性、可扩展性和性能,同时为用户提供透明的文件访问体验,仿佛文件是存储在单一的本地文件系统中一样。
wniuniu_8 天前
ceph
ceph中librbd模式下的qemu+librbdhttps://docs.ceph.com/en/latest/rbd/qemu-rbd/下面我把我们前面讨论的关键点串起来,给你一份“从概念到可执行命令”的完整说明,帮助你在已有 rbdpool/image 的前提下,正确使用 qemu + librbd 来启动虚拟机、进入虚拟机、验证磁盘、以及测试结束后的清理。
wniuniu_8 天前
ceph
一些问题ceph下面我严格围绕你给出的 3 个过程,从工程实践 + 考试/实验答辩两个角度,给你一组**“关键注意点 → 典型问题 → 标准答案”。 这些问题非常适合**:实验报告、课程答辩、面试、自己做 checklist。
wniuniu_8 天前
运维·服务器·ceph
ceph内核模式 和 librbd 模式好,这次我们完全不用“内核、librbd、块设备”这些术语,只用生活化的比喻,把它讲清楚。你只需要记住一个核心问题:
wniuniu_10 天前
网络·ceph
RBD 客户端挂载操作指南好,这里我直接把 B 同学的《RBD 客户端挂载操作指南》完整写出来,风格、深度和 A 同学那份是严格对齐的,方便你们做交叉测试与合并成一套实验文档。
wniuniu_10 天前
开发语言·ceph
ceph一些细节处理上面是一些配置文件,分别是密钥环,集群配置文件您提供的这几个文件是 Ceph 客户端(在本例中是 node3)用于连接和操作 Ceph 集群的核心配置文件和密钥文件。它们共同构成了客户端访问 RBD 块存储环境的基础。
wniuniu_10 天前
ceph
rbd快照好的,我将把关于 RBD 克隆和快照删除/回收机制的两个教程合并,创建一个带有详细命令、操作步骤和底层原理的综合指南。
wniuniu_10 天前
ceph
RBD 常用命令速查表好,那我直接把 A 同学要交付的《RBD 常用命令速查表》完整写出来。 这份文档我按**“实验课 / 技术文档”标准来写**,做到:
程序员小董12 天前
ceph
ceph ceph-kvstore-tool compact 使用的一些坑最近ceph的某个osd磁盘空间已经使用的97%了,只能先关闭osd,然后使用来执行compact。但是因为磁盘空间已经快慢了,发起离线compact后总会因为临时磁盘空间不够导致失败。具体的日志在与ceph-osd.x.log同目录的rados.log里面。
ShiLiu_mtx12 天前
ceph
Ceph - 1可扩展:分布式存储系统可以扩展到几百台甚至几千台的集群规模,而且随着集群规模的增长,系统整体性能表现为线性增长