ceph

lisanmengmeng1 天前
linux·服务器·ceph
添加ceph节点#cephadm shellceph orch host ls#按节点做好初始化工作ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02
张小凡vip1 天前
ceph·容器·kubernetes
Kubernetes---存储方案:Rook自动结合CephRook 是一个开源的云原生存储编排器,为 Kubernetes 提供平台级的存储服务。它简化了 Ceph、EdgeFS、Cassandra 等存储系统在 Kubernetes 中的部署和管理。
wniuniu_4 天前
数据库·ceph
日志内容和cephadmhttps://docs.ceph.com/en/reef/cephadm/operations/上面是ceph18的cephadm的操作
wniuniu_5 天前
ceph
ceph锁测试实验一:两个客户端都正常映射块设备,同时写入,判断是否会冲突,写入不同偏移的数据是否会冲突两个客户端ClientA:生成已知数据并写入 offset=0
wniuniu_8 天前
ceph
rbd镜像的锁https://docs.ceph.com/en/reef/rbd/rbd-exclusive-locks/
JNU freshman11 天前
java·大数据·ceph
从 Ceph 16(Pacific)到 Ceph 18(Reef):cephadm 的伸缩性演进与 cephadm agent 到底“成熟”了吗?在讨论 Ceph 16(Pacific)→ 17(Quincy)→ 18(Reef)的改进时,“cephadm 是否引入了 agent、是否摆脱了纯 SSH 轮询、Reef 是否已经成熟可管理超大规模集群”等说法常被混用。本文基于官方文档与发行说明,给出一条更可验证、也更稳妥的时间线,并指出你原描述中需要修正的部分。
wniuniu_11 天前
ceph
概括。。。。下面给你一个面向 RBD 块存储生产环境、按“可用性 / 易维护性 / 监控与遥测 / 数据一致性 / 集群可靠性”归纳的 Ceph16(Pacific)→Ceph18(Reef)期间最重要、且有明确官方依据的改进点(同时标注发生在哪个版本段:多数关键能力是在 Ceph17(Quincy)引入,你从 16 升到 18 会一并获得)。
JNU freshman11 天前
服务器·ceph·docker
使用 cephadm + Docker 镜像在三台服务器上部署 Ceph 集群(含网络规划与 OSD DB/WAL 分离)本文记录一次在三台服务器上用 cephadm 通过 Docker 容器镜像部署 Ceph 集群的完整流程,并重点说明:
JNU freshman11 天前
ceph
Ceph RBD:一个镜像能否被多客户端同时映射?如何避免“多端同时写入”风险在 Ceph 的块存储(RBD)使用过程中,一个常见疑问是:同一个 RBD 镜像能不能被多个客户端同时映射为块设备?如果可以,是否能设置“不能同时写入”,从而避免数据一致性问题?
wniuniu_12 天前
ceph
ceph16-18差异是否存在该变化(是否 Ceph18 才有):存在,且属于 **Ceph18(v18.2.0 Reef)**新增/变更点。 证据链接:https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/ (Ceph)
腾讯数据架构师13 天前
ceph·kubernetes·cube-studio·ai平台
cube studio 存储资源对接ceph前提条件:创建ceph文件存储root@node0:~# cat /etc/ceph/ceph.client.admin.keyring [client.admin] key = AQB2+mxpsq4kABAAMxSZKbiDSDo5S1ErcpwZiQ== caps mds = “allow *” caps mgr = “allow *” caps mon = “allow *” caps osd = “allow *” root@node0:~#
哼了个哈13 天前
ceph
[Ceph 14.2.22] 使用Ceph原生命令部署单机集群上表中是 Ceph 官方文档给出的 Ceph 14 系列的系统和内核推荐,其中在centos 7、ubuntu 14.04、ubuntu 16.04、ubuntu 18.04上都做了完整的测试。本文将介绍如何在ubuntu 18.04中使用 ceph 原生命令部署一个完整的 ceph 集群,ceph 版本为14.2.22。
lisanmengmeng24 天前
linux·运维·服务器·ceph
cephfs rbd应用是一种自动的将 I/O 的负载均衡到多个物理磁盘上的技术条带化技术就是将一块连续的数据分成很多小部分并把他们分别存储到不同磁盘上去
oMcLin25 天前
linux·运维·ceph
如何在 Manjaro Linux 上实现高效的 Ceph 存储集群,提升大规模文件存储的冗余性与性能?本文覆盖从硬件选型到网络架构、软件安装、配置实践、性能调优、评测数据及常见故障处理的完整流程,并提供详细代码示例与测试表格,旨在帮助读者在实际生产环境部署一个稳定、高效的 Ceph 分布式存储系统。
wniuniu_1 个月前
java·前端·ceph
ceph的osd可以,而且这是 Ceph(Bluestore)在生产环境中完全支持、也相当常见的一种部署形态。 但要按 Ceph 的真实实现规则来理解,否则很容易在“一个盘能不能给很多 OSD 用”这个点上产生误解。下面我给你一个严格、工程视角的说明。
mixboot1 个月前
ceph·scrub
Ceph PG 不一致问题排查与修复 scrub errors关键信息:问题分析: 修复命令执行后,PG 状态没有显示 repairing,说明修复命令可能没有真正执行或立即失败。
斯普信专业组1 个月前
ceph
从 Deep Scrubbing 滞后到集群性能跃迁:一次“以小见大”的 Ceph 优化实录#作者:高瑞东在维护ceph分布式存储系统时,我们常常会从一个不起眼的报警信号出发,最终揭开系统架构层面的隐患。最近,我们在处理一起 Ceph 集群(版本17.2.5) Deep Scrubbing(深度清洗)无法按计划完成 的问题时,就经历了一次典型的“以小见大”的排查过程。
oMcLin1 个月前
服务器·ceph·centos
如何在CentOS 7.9 服务器上配置并优化 Ceph 分布式存储集群,提升数据冗余与性能?本文基于A5IDC在真实生产环境(跨机房 Ceph 集群支撑虚拟机盘、对象存储及容灾复制)的实战经验,详细讲解如何从零部署 Ceph 集群在 CentOS 7.9 上,并通过硬件配置选择、网络优化、Ceph 参数调优等实用细节提升 数据冗余能力与性能表现。文章包含具体产品型号、系统配置表、命令示例与性能评估对比表,适合中大型数据中心储存架构实施。
mixboot1 个月前
ceph·bluefs溢出
Ceph BlueFS 溢出修复集群信息:告警信息:影响:设备配置:BlueFS 空间使用:Compact 操作会压缩 RocksDB,有可能将溢出的数据迁移回 DB 设备。
only火车头1 个月前
服务器·ceph
升级 ceph (16.2 -> 18.2) ceph mon 启动失败ceph 升级后, ceph mon 启动报错:大致原因之前使用 level db,ceph 18.2 使用变为了 rocksdb。