ceph

lpruoyu3 小时前
ceph·云原生·容器·kubernetes
【云原生】Kubernetes平台存储系统搭建_CRI、CNI、CSI存储系统是个专业性的整个体系,我们只用常见方式搭建,具体优化需要参照公司自己的产品等各种进行调整Rook+Ceph【可以使用到任意能力的存储】
JNU freshman1 天前
java·ceph·重构
Ceph 中与“重构/恢复/回填/重平衡”相关的参数表你要的话,我可以下一步直接把这份内容整理成一版 更像你截图那种可直接粘进 Word/Excel 的表格格式。
Insist7533 天前
运维·服务器·ceph
基于 ceph-deploy 部署 Ceph 集群Ceph 环境规划(测试环境不需要Cluster网络)根据规划设置主机名配置 hosts 解析node1、node2、node3、添加子网
韭菜张师傅3 天前
ceph
Ceph MGR 命令详解MGR(Manager)是 Ceph 集群中的管理组件,负责提供额外的监控和接口功能,包括 Web 仪表板、REST API、指标收集等。在 Ceph Luminous 版本中引入,从 Quincy 版本开始成为集群必需组件。
无级程序员5 天前
ceph
xsky/ceph rbd新建pool后,无法创建新盘按网上说的创建了新的pool新池创建没问题,然而在rbd create --size 1G kubernetes/test-image时卡死了,网上搜了一堆,也没解决 ceph status 正常 ceph health detail 输出一堆的类似如下信息:
韭菜张师傅8 天前
ceph·容器·kubernetes
Ceph Quincy版本在线安装实战:打造Kubernetes高性能存储集群在云原生时代,分布式存储已成为支撑大规模容器化应用的核心基础设施。当我们在KubeSphere中遇到ElasticSearch组件因NFS存储导致的性能瓶颈时,Ceph便成为了最佳替代方案。本文将详细介绍如何在线安装Ceph Quincy版本(v17.2.9),为Kubernetes 1.30.x集群提供稳定可靠的存储支持。
韭菜张师傅5 天前
ceph
CephFS存储池详解与命名规范:Rocky 9.6 + Ceph 17.2.9环境实践在部署CephFS(Ceph File System)时,正确创建和配置存储池是至关重要的一步。许多初次接触CephFS的用户会对存储池的创建过程感到困惑,尤其是对为什么要创建两个存储池、哪些名称是固定的、哪些是可以自定义的等问题不太清楚。本文将深入解析CephFS存储池的概念,并详细介绍在Rocky Linux 9.6环境下使用Ceph 17.2.9 (Quincy)版本时的最佳实践。
韭菜张师傅5 天前
ceph
Ceph MON 命令详解MON(Monitor)是 Ceph 集群的大脑,负责维护集群映射(cluster map)和状态信息。MON 组件确保集群的一致性和协调性,是 Ceph 高可用性的关键组成部分。
韭菜张师傅8 天前
java·网络·ceph
Ceph环境完全重置指南:彻底清理集群环境在Ceph集群部署、测试或故障排除过程中,有时需要将整个环境重置到初始状态。特别是在Rocky Linux 9.6环境下运行Ceph Quincy 17.2.9版本时,彻底清理环境可以解决很多配置冲突问题。本文将详细介绍如何彻底清除Ceph环境,包括删除所有相关容器、配置文件和存储设备,使系统回到未安装Ceph的状态。
JNU freshman8 天前
网络·ceph
Ceph 18(Reef)生产级调优手册在 Ceph 集群中,RBD(RADOS Block Device) 是最常见的块存储接口,广泛用于:
lisanmengmeng1 个月前
ceph
ceph 中的OSD首先描述一下ceph数据的存储过程,如下图:无论使用哪种存储方式(对象、块、挂载),存储的数据都会被切分成对象(Objects)。Objects size大小可以由管理员调整,通常为2M或4M。每个对象都会有一个唯一的OID,由ino与ono生成,虽然这些名词看上去很复杂,其实相当简单。ino即是文件的File ID,用于在全局唯一标示每一个文件,而ono则是分片的编号。比如:一个文件FileID为A,它被切成了两个对象,一个对象编号0,另一个编号1,那么这两个文件的oid则为A0与A1。Oid的好处是可
lisanmengmeng1 个月前
ceph
CEPH的基本结构Ceph的基本组成结构如下图Ceph的底层是RADOS,RADOS本身也是分布式存储系统,CEPH所有的存储功能都是基于RADOS实现
lisanmengmeng1 个月前
ceph
ceph一些命令ceph pg statceph osd pool statsceph dfceph df detail
lisanmengmeng1 个月前
linux·运维·服务器·ceph
cephadm 17.2.5安装部署 (二)#修改cephadm文件,主要是修改ceph镜像的版本信息和改为从本地镜像部署/usr/sbin/cephadm
only_Klein1 个月前
ceph·kubernetes·分布式存储
kubernetes集群下的分布式存储方案-ceph本实验通过 ceph 的对接使用,实现对于 Kubernetes 后端块存储和文件存储的实践。理解 volume 挂载 ceph-rbd 的方法。(k8s v1.31 版本将删除Ceph RBD 卷插件及其 CSI 迁移支持,rbd卷类型将无法继续使用。 建议你在集群中使用RBD CSI 驱动。)
苦逼IT运维1 个月前
ceph·网络协议·https
Helm 实战指南(四):生产环境 Helm 部署 CVAT 全记录:Ceph 存储、GPU 节点污点调度与 HTTPS 指南刚好!最近公司业务需求,需要搭建一套 CVAT (Computer Vision Annotation Tool) 计算机视觉标注系统,开源标注工具。
大新新大浩浩1 个月前
ceph
ceph平台-未及时移除故障osd导致根目录100%问题的故障记录一个甲方的ceph集群,osd日志拉满导致根目录100%甲方联系说有点问题,远程处理。 首先登陆到控制节点发现根目录满了,检查定位到日志目录,所有osd日志大小几乎一致。 然后检查所有存储节点都有类似问题。 打开日志文件分析原因,下面放三个osd日志的截图 全部在16:57 指向到secret_id:44281
北亚数据恢复2 个月前
分布式·ceph·数据恢复·tidb·服务器数据恢复·北亚数据恢复·存储数据恢复
分布式数据恢复—Ceph+TiDB数据恢复报告一、Ceph故障表现 故障情况:客户设备为Ceph分布式存储系统,采用RBD(RADOS Block Device)作为块存储服务。Ceph集群由多个OSD(Object Storage Daemon)节点组成,数据通过CRUSH算法分布存储在多个物理节点上。在系统运行过程中,由于误操作执行了初始化重置命令,导致Ceph集群的元数据信息被重置,存储池(Pool)配置丢失,RBD卷的映射关系被破坏,整个存储系统中的数据无法正常访问。目标需要恢复的RBD卷中存储了一台虚拟机的完整磁盘镜像,该虚拟机内部运行Ti
lisanmengmeng2 个月前
linux·服务器·ceph
添加ceph节点#cephadm shellceph orch host ls#按节点做好初始化工作ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02
张小凡vip2 个月前
ceph·容器·kubernetes
Kubernetes---存储方案:Rook自动结合CephRook 是一个开源的云原生存储编排器,为 Kubernetes 提供平台级的存储服务。它简化了 Ceph、EdgeFS、Cassandra 等存储系统在 Kubernetes 中的部署和管理。