【ceph】ceph集群中使用多路径(Multipath)方法

本站以分享各种运维经验和运维所需要的技能为主

《python零基础入门》:python零基础入门学习

《python运维脚本》: python运维脚本实践

《shell》:shell学习

《terraform》持续更新中:terraform_Aws学习零基础入门到最佳实战

《k8》暂未更新

《docker学习》暂未更新

《ceph学习》ceph日常问题解决分享

《日志收集》ELK+各种中间件

《运维日常》运维日常

《linux》运维面试100问

ceph集群中使用多路径方法

多路径(Multipath)是一种用于存储网络(如Ceph)中提高可靠性和性能的技术。下面是多路径的一些优点和缺点:

优点:

  1. 高可靠性:多路径允许数据通过多条独立的路径传输,当其中一条路径发生故障时,可以自动切换到其他可用路径,提高系统的可靠性和冗余性。

  2. 提高性能:通过同时使用多条路径,多路径可以提高存储系统的带宽和吞吐量。数据可以在多个路径上并行传输,从而减少瓶颈和提高性能。

  3. 负载均衡:多路径技术可以将数据流量均匀地分布到多条路径上,从而实现负载均衡。这有助于避免单条路径过载,提高整体系统的性能和效率。

  4. 故障恢复:当某条路径发生故障或中断时,多路径可以自动检测并切换到其他可用路径,从而实现快速的故障恢复和无缝的数据访问。

缺点:

  1. 配置复杂性:多路径技术的配置和管理相对复杂,需要正确地配置和维护多个路径和相关的组件。这可能需要一些专业知识和经验。

  2. 系统开销:使用多路径会增加一定的系统开销,包括处理多个路径和路由决策的开销。这可能会对系统的性能产生一定的影响。

  3. 需要硬件支持:多路径技术通常需要存储设备和网络设备的支持。如果硬件不支持多路径或需要额外的配置,可能需要进行相应的升级或更换。

  4. 可能的兼容性问题:在某些情况下,特定的应用程序或操作系统可能不完全支持多路径技术,可能会导致兼容性问题或功能限制。

综合考虑这些因素,多路径技术在提高存储系统的可靠性和性能方面具有显著的优势。然而,在实施多路径之前,需要仔细评估系统需求和硬件支持,并确保正确配置和管理多路径组件。

例如:

普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的

配置安装:

  • yum install -y device-mapper*

  • modprobe dm-multipath

  • modprobe dm-round-robin

  • systemctl enable multipathd.service

  • /sbin/mpathconf --enable

  • systemctl start multipathd.service

执行完后,lsblk会看到很多mpathXXX这种盘符,属于正常现象

这时,因为使用软件做了多路径聚合,所以创建osd的lvm的时候,用的是/dev/mapper/下面的mpathX块设备

卸载不使用多路径:

  • systemctl stop/disable multipathd.service

  • modprobe -r dm-multipath(在内核中去掉)--- (lsmod | grep multi)

  • multipathd -F(清掉现在的多路径)

相关推荐
珂玥c15 小时前
Ceph集群新增osd
ceph
老wang你好2 天前
Ceph分布式存储系统全解析
ceph
一个行走的民15 天前
分布式系统中 Map 增量(Delta)是否需要持久化
ceph
一个行走的民16 天前
BlueStore 核心原理与关键机制
ceph
奋斗的小青年I18 天前
Proxmox VE Ceph 超融合集群落地实战
windows·ceph·vmware·pve·超融合·proxmox
一个行走的民18 天前
深度剖析 Ceph PG 分裂机制:原理、底层、实操、影响、线上避坑(最全完整版)
ceph·算法
一个行走的民19 天前
Ceph 核心概念精讲:彻底搞懂 PG、PGP、pg_num、pgp_num
ceph
Mr.王8351 个月前
Kubernetes宿主机本地盘池化管理
ceph·云原生·容器·kubernetes
一个行走的民1 个月前
CEPH OSD心跳机制
ceph
一个行走的民1 个月前
Ceph PG 状态详解与线上故障处理
网络·ceph