ceph

斯普信专业组6 小时前
ceph·云原生·kubernetes
k8s云原生rook-ceph pvc快照与恢复(下)#作者:Unstopabler这里先创建一个pvc示例,pvc资源内容如下创建pod资源,并使用pvc创建 rbd-pvc名称如下
斯普信专业组13 小时前
ceph·云原生·kubernetes
k8s云原生rook-ceph pvc快照与恢复(上)#作者:UnstopablerRook 是一个开源的云原生存储编排器,为各种存储解决方案提供平台、框架和支持,以便与云原生环境进行原生集成。 Rook 将分布式存储系统转变为自管理、自扩展、自修复的存储服务。它使存储管理员的部署、引导、配置、配置、扩展、升级、迁移、灾难恢复、监控和资源管理等任务自动化。简而言之,Rook 就是一组 Kubernetes 的 Operator,它可以完全控制多种数据存储解决方案(例如 Ceph、EdgeFS、Minio、Cassandra)的部署,管理以及自动恢复。rook
斯普信专业组17 小时前
ceph·容器·kubernetes
Ceph、K8s、CSI、PVC、PV 深入详解#作者:邓伟Ceph 是一个高度可扩展的分布式存储系统,能够提供对象存储、块存储和文件系统存储三种类型的存储服务,具有高可用性、高容错性和强一致性等特点。其核心组件包括 Ceph Monitor(监控集群状态)、Ceph OSD(对象存储守护进程,负责数据的存储和读写)、MDS(元数据服务器,用于文件系统存储)等。Ceph 通过 CRUSH 算法(可控的、可扩展的、分布式的副本放置算法)来决定数据的存储位置,实现了数据的高效分布和均衡负载。
mixboot13 天前
ceph·osd
Ceph OSD.419 故障分析在 Ceph 存储集群中,OSD.419 无法正常启动,系统日志显示服务反复重启失败。观察到 OSD.419 服务启动失败的系统状态:
赵成ccc13 天前
分布式·ceph
离线部署三节点 Ceph 分布式存储确保三台服务器满足以下条件:下载离线包 在有网络的机器下载 Ceph RPM/DEB 包及依赖(以 Luminous 版本为例):
赵成ccc13 天前
分布式·ceph
三节点Ceph分布式存储搭建指南环境准备ceph-deploy install安装Ceph部署工具 在主管理节点(如ceph-node1)执行:
免檒13 天前
ceph·后端·docker·容器
windows11下基于docker单机部署ceph集群生成结果如:开发使用: 可以直接通过代码进行操作:
mixboot13 天前
ceph·osd
Ceph集群OSD崩溃恢复集群处于HEALTH_WARN状态1个守护进程(OSD.325)最近崩溃通过ceph -s命令,查看详细的警告信息:
羌俊恩17 天前
分布式·ceph·pg·osd·rados
分布式存储之Ceph使用指南--部署篇(未完待续)Ceph是一个可靠、自动重均衡、自动恢复的分布式存储系统,其性能卓越、安全可靠,专门面向对象、块与文件存储,提供一个统一的存储服务,支持统一的接口和先进的架构;它可以将多台服务器组成一个超大集群,把这些机器中的磁盘资源整合到一块儿,形成一个大的存储资源池(支持PB级别),然后按需分配给客户端应用使用。而红帽® Ceph® 存储是专为私有云架构设计的软件定义存储平台,现在作为与 OpenShift® 上的红帽 OpenStack 服务组合的解决方案独家提供(现在由IBM来维护),这也是我们最初了解ceph作
大咖分享课23 天前
分布式·ceph·架构·分布式存储
深度剖析:Ceph分布式存储系统架构🚀 一文带你彻底搞懂Ceph的架构奥秘,从小白到架构师的进阶之路!1. Ceph简介:存储界的"多面手"
虚伪的空想家1 个月前
ceph·云原生·k8s·存储·rook
rook-ceph配置dashboard代理无法访问在ceph-tools的pod中看看dashboard是否开启 kubectl -n rook-ceph exec -it rook-ceph-tools-7b75b967db-jn68d – bash
QF_2 个月前
ceph·debian·kvm·libvirt
debian搭建ceph记录(接入libvirt)我是在kvm环境下搭建的3台虚拟机准备另一台kvm机器,安装libvirt环境,下载qcow2镜像等,可参考我的另一篇文章 记录使用libvirt创建虚拟机、自定义qcow2镜像
斯普信专业组3 个月前
运维·ceph
Ceph集群OSD运维手册:基础操作与节点扩缩容实战#作者:stackofumbrella$ sudo ceph osd ls$ sudo ceph osd dump
时空无限4 个月前
ceph
CEPH OSD_SLOW_PING_TIME_FRONT/BACK 警告处理说明:mon_warn_on_slow_ping_time 该值默认为0,那么只要 osd 心跳超过 mon_warn_on_slow_ping_ratio of osd_heartbeat_grace. 也就是超过 mon_warn_on_slow_ping_ratio和mon_warn_on_slow_ping_ratio的乘积即报警CEPH OSD_SLOW_PING_TIME_FRONT/BACK 即超过1000 ms 即报警。 所以直接设置 mon_warn_on_slow_ping_time
云计算运维丁丁4 个月前
ceph·架构
ceph集群架构阐述首先,ceph集群也是分为客户端和服务端的,是一种高效的分布式存储系统,我们将其拆分为这两个部分来进行分析。
liuy52774 个月前
ceph
dmsetup 清理ceph osd残留磁盘分区在物理机上接入磁盘并准备格式化时,发现磁盘中存在之前残留的 Ceph OSD 分区。尝试运用 fdisk 重新分区、重新格式化,以及使用 sgdisk 格式化,甚至重写磁盘头,都未能成功清理掉这些 OSD 残留分区。最终,借助 dmsetup 直接删除磁盘映射的方式,成功解决了这一棘手问题 。
斯普信专业组4 个月前
前端·ceph·github
ceph数据迁移数据迁移与bacula配置调整优化实战#作者:猎人为了规避因单个OSD利用率达90%而导致整个集群错误无法访问,ceph集群现已在原ceph块设备的基础上建立了cephfs文件系统用于存储数据,需要把原备份到块设备上的设备迁移到新建的cephfs上,迁移完毕后把ceph rbd回收,后续所有的备份数据直接写到cephfs。
斯普信专业组4 个月前
linux·服务器·ceph
Ceph异地数据同步之-RBD异地同步复制(下)#作者:闫乾苓优点:缺点:如果时在创建镜像时没有使用–image-feature 开启exclusive-lock,journaling,可以使用以下命令开启日志功能 rbd feature enable data/image1 exclusive-lock, journaling
小马爱打代码4 个月前
分布式·ceph·kubernetes
Kubernetes 中部署 Ceph,构建高可用分布式存储服务Ceph 是一个高性能的分布式存储系统,支持对象存储、块存储和文件存储,广泛应用于云原生环境中。结合 Kubernetes,Ceph 可以为应用提供动态持久化存储卷(PV),实现高可用和弹性存储。
斯普信专业组4 个月前
运维·ceph·github
Ceph与Bacula运维实战:数据迁移与备份配置优化指南#作者:猎人为了规避因单个OSD利用率达90%而导致整个集群错误无法访问,ceph集群现已在原ceph块设备的基础上建立了cephfs文件系统用于存储数据,需要把原备份到块设备上的设备迁移到新建的cephfs上,迁移完毕后把ceph rbd回收,后续所有的备份数据直接写到cephfs。