GPFS并行文件系统部署实践

环境

ubuntu22.04

试用版下载链接

复制代码
https://www.ibm.com/cn-zh/products/storage-scale

我的版本:Storage_Scale_Developer-5.2.2.1-x86_64-Linux

复制代码
apt install -y build-essential linux-headers-$(uname -r) 

hosts

复制代码
172.23.170.11 ubuntu1 172.23.170.12 ubuntu2 172.23.170.13 ubuntu3 172.23.170.14 ubuntu4 172.23.170.101 ces1.imalloc.cn ces1 172.23.170.102 ces2.imalloc.cn ces2 172.23.170.103 ces3.imalloc.cn ces3 

安装

复制代码
# 解压后安装
./Storage_Scale_Developer-5.2.2.1-x86_64-Linux-install --text-only

# 配置安装节点
cd /usr/lpp/mmfs/5.2.2.1/ansible-toolkit/ ./spectrumscale setup -s 172.23.170.101 # 添加节点并查看配置 ./spectrumscale node add ubuntu1 -a -g -n -m -q ./spectrumscale node add ubuntu2 -a -g -n -q ./spectrumscale node add ubuntu3 -n -q ./spectrumscale node list 

参数-a-g-n-m-q 分别表示不同类型的节点,这些节点在 GPFS 集群中扮演不同的角色。以下是它们的具体作用:

  1. -a 表示 Admin 节点(管理节点):
    • Admin 节点是 GPFS 集群的管理员节点,主要负责管理集群的配置、监控和维护任务。
    • 它通常用于运行 GPFS 管理命令,例如创建文件系统、添加或删除节点、配置策略等。
    • Admin 节点可以有多台,但通常由系统管理员指定一台或几台节点作为主要的管理节点。
  2. -g 表示 GUI 节点(图形用户界面节点):
    • GUI 节点用于运行 GPFS 的图形用户界面工具,方便管理员通过可视化界面管理集群。
    • 它提供了一个友好的界面来监控文件系统的性能、节点状态和执行管理任务,而无需使用命令行。
    • 并非所有 GPFS 部署都需要 GUI 节点,这取决于是否需要图形化管理。
  3. -n 表示 NSD 节点(Network Shared Disk 节点):
    • NSD 节点负责管理 GPFS 的存储设备(磁盘)。它是 GPFS 数据存储和访问的核心节点。
    • 这些节点直接与物理存储(例如 SAN 或本地磁盘)交互,并确保数据在集群中的分布和冗余。
    • 每个 NSD 节点都可以为文件系统提供存储空间,并且多个 NSD 节点协作以提高性能和容错能力。
  4. -m 表示 Manager 节点(管理器节点):
    • Manager 节点负责协调 GPFS 集群中的元数据操作。元数据包括文件系统结构、文件位置等信息。
    • 在 GPFS 中,Manager 节点确保所有节点对文件系统的元数据有一致的视图,并处理锁管理和数据一致性。
    • 通常会有多个 Manager 节点以提供高可用性,如果主 Manager 节点失败,备用 Manager 节点会接管。
  5. -q 表示 Quorum 节点(仲裁节点):
    • Quorum 节点用于确保集群在节点失败或网络分区的情况下保持稳定。
    • GPFS 使用仲裁机制来决定集群是否可以继续运行。例如,只有当大多数 Quorum 节点在线时,集群才能正常工作,这防止了数据不一致或"分裂脑"问题。
    • Quorum 节点的数量和位置需要仔细规划,以保证高可用性和容错能力。

添加磁盘

复制代码
./spectrumscale nsd add -p ubuntu1 -fs gpfs -fg 101 -po system -u dataAndMetadata "/dev/sdb" ./spectrumscale nsd add -p ubuntu1 -fs gpfs -fg 101 -po pool01 -u dataOnly "/dev/sdc" ./spectrumscale nsd add -p ubuntu1 -fs gpfs -fg 101 -po pool02 -u dataOnly "/dev/sdd" ./spectrumscale nsd add -p ubuntu2 -fs gpfs -fg 102 -po system -u dataAndMetadata "/dev/sdb" ./spectrumscale nsd add -p ubuntu2 -fs gpfs -fg 102 -po pool01 -u dataOnly "/dev/sdc" ./spectrumscale nsd add -p ubuntu2 -fs gpfs -fg 102 -po pool02 -u dataOnly "/dev/sdd" ./spectrumscale nsd add -p ubuntu3 -fs gpfs -fg 103 -po system -u dataAndMetadata "/dev/sda" ./spectrumscale nsd add -p ubuntu3 -fs gpfs -fg 103 -po pool01 -u dataOnly "/dev/sdb" ./spectrumscale nsd add -p ubuntu3 -fs gpfs -fg 103 -po pool02 -u dataOnly "/dev/sdc" ./spectrumscale nsd list 

命令结构和参数说明

基本命令是 ./spectrumscale nsd add,用于向 GPFS 集群添加新的 NSD 设备。以下是每个参数的含义:

  • -p <node> :指定 NSD 设备所在的节点。在你的例子中,节点分别是 ubuntu1ubuntu2ubuntu3。这表示这些 NSD 设备将挂载在指定的节点上。
  • -fs <filesystem> :指定要添加 NSD 设备的文件系统名称。在所有命令中,文件系统名称都是 gpfs,意味着这些 NSD 设备都属于同一个 GPFS 文件系统。
  • -fg <failure group> :指定故障组 (Failure Group)。故障组用于确保数据的高可用性和容错能力。如果一个故障组中的节点或磁盘失败,其他故障组的节点可以接管。命令中使用了三个不同的故障组:101 (用于 ubuntu1 )、102 (用于 ubuntu2 )和 103 (用于 ubuntu3)。
  • -po <pool> :指定存储池 (Storage Pool)。存储池是 GPFS 中用于组织和管理存储空间的逻辑分组。命令中使用了三个存储池:
    • system:通常用于存储元数据和关键数据。
    • pool01pool02:用户数据存储池,可能用于不同的性能或容量需求。
  • -u <usage> :指定 NSD 的使用类型:
    • dataAndMetadata :该磁盘用于存储数据和元数据(适用于关键存储,如 system 存储池)。
    • dataOnly :该磁盘仅用于存储数据,不存储元数据(适用于大规模数据存储,如 pool01pool02)。
  • "/dev/sdX" :指定实际的物理设备或分区路径,例如 /dev/sdb/dev/sdc 等。这些是将被用作 NSD 的底层存储设备。

副本数量与挂载点

复制代码
./spectrumscale filesystem list
./spectrumscale filesystem modify gpfs -mr 2 -MR 3 -r 2 -R 3 -m /gpfs ./spectrumscale filesystem list 

参数说明

  • -r

    指定每个数据块的文件副本数。该参数接受以下值:1、2、3。

  • -mr

    指定inode和目录的副本数。该参数接受以下值:1、2、3。

  • -MR

    指定inode和目录的默认最大副本数。该参数接受以下值:1、2、3。

  • -R

    指定每个数据块的文件的默认最大副本数。该参数接受以下值:1、2、3。

-m <mountpoint> :指定文件系统的挂载点。在这里,-m /gpfs 表示文件系统 gpfs 将挂载在 /gpfs 目录下。这是客户端访问文件系统时使用的路径。

其他配置

复制代码
# 开启性能监控,默认已经打开
./spectrumscale config perfmon -r on

# 通讯端口
./spectrumscale config gpfs -c gpfsdemo -e 60000-61000 # Callhome 功能 ./spectrumscale callhome disable 

GPFS集群部署

复制代码
# 检查配置
./spectrumscale install --precheck

# 安装
./spectrumscale install

GUI配置

复制代码
/usr/lpp/mmfs/gui/cli/mkuser admin -g Administrator,SecurityAdmin 

部署CES服务(可选)

复制代码
echo "172.23.170.101 ces1.imalloc.cn ces1">>/etc/hosts
echo "172.23.170.102 ces2.imalloc.cn ces2">>/etc/hosts
echo "172.23.170.103 ces3.imalloc.cn ces3">>/etc/hosts ./spectrumscale node add ubuntu1 -p ./spectrumscale node add ubuntu2 -p ./spectrumscale node add ubuntu3 -p ./spectrumscale node list # 我的另外一张网卡,发布服务 ./spectrumscale config protocols -e 172.23.170.101,172.23.170.102,172.23.170.103 # 配置cesShareRoot ./spectrumscale config protocols -f gpfs -m /gpfs # 开启NFS和SMB服务协议 ./spectrumscale enable nfs ./spectrumscale enable smb # 检查配置 ./spectrumscale deploy --precheck # 部署 ./spectrumscale deploy 

配置CES(可选)

复制代码
# 认证方式本地认证
/usr/lpp/mmfs/bin/mmuserauth service create --data-access-method file --type userdefined

# 添加用户
useradd cestest
/usr/lpp/mmfs/bin/smbpasswd -a cestest # 发布SMB mkdir /gpfs/smbshare1 chown cestest /gpfs/smbshare1 /usr/lpp/mmfs/bin/mmsmb export add smbshare1 /gpfs/smbshare1 #访问 \\172.23.170.101\smbshare1 

添加GPFS客户端

复制代码
./spectrumscale node add FQDN
./spectrumscale callhome disable

./spectrumscale install --precheck
./spectrumscale install

命令参考

https://www.ibm.com/docs/en/storage-scale/5.2.2