ceph

lisanmengmeng1 天前
linux·运维·服务器·ceph
cephadm 17.2.5安装部署 (二)#修改cephadm文件,主要是修改ceph镜像的版本信息和改为从本地镜像部署/usr/sbin/cephadm
only_Klein1 天前
ceph·kubernetes·分布式存储
kubernetes集群下的分布式存储方案-ceph本实验通过 ceph 的对接使用,实现对于 Kubernetes 后端块存储和文件存储的实践。理解 volume 挂载 ceph-rbd 的方法。(k8s v1.31 版本将删除Ceph RBD 卷插件及其 CSI 迁移支持,rbd卷类型将无法继续使用。 建议你在集群中使用RBD CSI 驱动。)
苦逼IT运维2 天前
ceph·网络协议·https
Helm 实战指南(四):生产环境 Helm 部署 CVAT 全记录:Ceph 存储、GPU 节点污点调度与 HTTPS 指南刚好!最近公司业务需求,需要搭建一套 CVAT (Computer Vision Annotation Tool) 计算机视觉标注系统,开源标注工具。
大新新大浩浩3 天前
ceph
ceph平台-未及时移除故障osd导致根目录100%问题的故障记录一个甲方的ceph集群,osd日志拉满导致根目录100%甲方联系说有点问题,远程处理。 首先登陆到控制节点发现根目录满了,检查定位到日志目录,所有osd日志大小几乎一致。 然后检查所有存储节点都有类似问题。 打开日志文件分析原因,下面放三个osd日志的截图 全部在16:57 指向到secret_id:44281
北亚数据恢复3 天前
分布式·ceph·数据恢复·tidb·服务器数据恢复·北亚数据恢复·存储数据恢复
分布式数据恢复—Ceph+TiDB数据恢复报告一、Ceph故障表现 故障情况:客户设备为Ceph分布式存储系统,采用RBD(RADOS Block Device)作为块存储服务。Ceph集群由多个OSD(Object Storage Daemon)节点组成,数据通过CRUSH算法分布存储在多个物理节点上。在系统运行过程中,由于误操作执行了初始化重置命令,导致Ceph集群的元数据信息被重置,存储池(Pool)配置丢失,RBD卷的映射关系被破坏,整个存储系统中的数据无法正常访问。目标需要恢复的RBD卷中存储了一台虚拟机的完整磁盘镜像,该虚拟机内部运行Ti
lisanmengmeng5 天前
linux·服务器·ceph
添加ceph节点#cephadm shellceph orch host ls#按节点做好初始化工作ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02
张小凡vip5 天前
ceph·容器·kubernetes
Kubernetes---存储方案:Rook自动结合CephRook 是一个开源的云原生存储编排器,为 Kubernetes 提供平台级的存储服务。它简化了 Ceph、EdgeFS、Cassandra 等存储系统在 Kubernetes 中的部署和管理。
wniuniu_8 天前
数据库·ceph
日志内容和cephadmhttps://docs.ceph.com/en/reef/cephadm/operations/上面是ceph18的cephadm的操作
wniuniu_9 天前
ceph
ceph锁测试实验一:两个客户端都正常映射块设备,同时写入,判断是否会冲突,写入不同偏移的数据是否会冲突两个客户端ClientA:生成已知数据并写入 offset=0
wniuniu_12 天前
ceph
rbd镜像的锁https://docs.ceph.com/en/reef/rbd/rbd-exclusive-locks/
JNU freshman15 天前
java·大数据·ceph
从 Ceph 16(Pacific)到 Ceph 18(Reef):cephadm 的伸缩性演进与 cephadm agent 到底“成熟”了吗?在讨论 Ceph 16(Pacific)→ 17(Quincy)→ 18(Reef)的改进时,“cephadm 是否引入了 agent、是否摆脱了纯 SSH 轮询、Reef 是否已经成熟可管理超大规模集群”等说法常被混用。本文基于官方文档与发行说明,给出一条更可验证、也更稳妥的时间线,并指出你原描述中需要修正的部分。
wniuniu_15 天前
ceph
概括。。。。下面给你一个面向 RBD 块存储生产环境、按“可用性 / 易维护性 / 监控与遥测 / 数据一致性 / 集群可靠性”归纳的 Ceph16(Pacific)→Ceph18(Reef)期间最重要、且有明确官方依据的改进点(同时标注发生在哪个版本段:多数关键能力是在 Ceph17(Quincy)引入,你从 16 升到 18 会一并获得)。
JNU freshman15 天前
服务器·ceph·docker
使用 cephadm + Docker 镜像在三台服务器上部署 Ceph 集群(含网络规划与 OSD DB/WAL 分离)本文记录一次在三台服务器上用 cephadm 通过 Docker 容器镜像部署 Ceph 集群的完整流程,并重点说明:
JNU freshman16 天前
ceph
Ceph RBD:一个镜像能否被多客户端同时映射?如何避免“多端同时写入”风险在 Ceph 的块存储(RBD)使用过程中,一个常见疑问是:同一个 RBD 镜像能不能被多个客户端同时映射为块设备?如果可以,是否能设置“不能同时写入”,从而避免数据一致性问题?
wniuniu_16 天前
ceph
ceph16-18差异是否存在该变化(是否 Ceph18 才有):存在,且属于 **Ceph18(v18.2.0 Reef)**新增/变更点。 证据链接:https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/ (Ceph)
腾讯数据架构师17 天前
ceph·kubernetes·cube-studio·ai平台
cube studio 存储资源对接ceph前提条件:创建ceph文件存储root@node0:~# cat /etc/ceph/ceph.client.admin.keyring [client.admin] key = AQB2+mxpsq4kABAAMxSZKbiDSDo5S1ErcpwZiQ== caps mds = “allow *” caps mgr = “allow *” caps mon = “allow *” caps osd = “allow *” root@node0:~#
哼了个哈17 天前
ceph
[Ceph 14.2.22] 使用Ceph原生命令部署单机集群上表中是 Ceph 官方文档给出的 Ceph 14 系列的系统和内核推荐,其中在centos 7、ubuntu 14.04、ubuntu 16.04、ubuntu 18.04上都做了完整的测试。本文将介绍如何在ubuntu 18.04中使用 ceph 原生命令部署一个完整的 ceph 集群,ceph 版本为14.2.22。
lisanmengmeng1 个月前
linux·运维·服务器·ceph
cephfs rbd应用是一种自动的将 I/O 的负载均衡到多个物理磁盘上的技术条带化技术就是将一块连续的数据分成很多小部分并把他们分别存储到不同磁盘上去
oMcLin1 个月前
linux·运维·ceph
如何在 Manjaro Linux 上实现高效的 Ceph 存储集群,提升大规模文件存储的冗余性与性能?本文覆盖从硬件选型到网络架构、软件安装、配置实践、性能调优、评测数据及常见故障处理的完整流程,并提供详细代码示例与测试表格,旨在帮助读者在实际生产环境部署一个稳定、高效的 Ceph 分布式存储系统。
wniuniu_1 个月前
java·前端·ceph
ceph的osd可以,而且这是 Ceph(Bluestore)在生产环境中完全支持、也相当常见的一种部署形态。 但要按 Ceph 的真实实现规则来理解,否则很容易在“一个盘能不能给很多 OSD 用”这个点上产生误解。下面我给你一个严格、工程视角的说明。