半夜三更的,Proxmox VE集群的ceph OSD磁盘挂了

这几天centreon监控频频报警,提示ceph pg 错误,用 ceph health detail 确定不一致的pgs,然后用指令 ceph pg repair pg_num 进行修复,通过查看系统日志,有IO错误,修复一次,能管半天,提醒决策人买新硬盘换上,不理睬,今天终于挂掉了,虽然不影响业务,但资源总体利用率超过70%,一旦节点挂掉,虚拟机连漂移的机会都没有。

Ceph OSD磁盘自己down了,不打算在mount。

系统自己在那里做平衡操作呢!

相关推荐
斯普信专业组1 天前
从零到一:基于Rook构建云原生Ceph存储的全面指南(下)
ceph·云原生
佟晖3 天前
ceph 16.2.15(Pacific)编译
linux·ceph·分布式存储
淡黄的Cherry19 天前
ceph新增节点,OSD设备,标签管理(二)
ceph
Linux运维老纪19 天前
分布式存储的技术选型之HDFS、Ceph、MinIO对比
大数据·分布式·ceph·hdfs·云原生·云计算·运维开发
淡黄的Cherry20 天前
ceph基本概念,架构,部署(一)
ceph
阿无@_@20 天前
1、ceph的安装——方式一ceph-ansible
ceph·ansible
阿无@_@20 天前
2、ceph的安装——方式二ceph-deploy
linux·ceph·centos
来自于狂人1 个月前
Ceph与RAID在存储中的协同工作过程
ceph
聚集的流星1 个月前
rook-ceph云原生存储解决方案
ceph·云原生
时空无限1 个月前
ceph osd df 输出详解
ceph