CephFS文件系统存储服务

目录

[1.创建 CephFS 文件系统 MDS 接口](#1.创建 CephFS 文件系统 MDS 接口)

服务端操作

[1.1 在管理节点创建 mds 服务](#1.1 在管理节点创建 mds 服务)

[1.2 创建存储池,启用 ceph 文件系统](#1.2 创建存储池,启用 ceph 文件系统)

[1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务](#1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务)

[1.4 创建用户](#1.4 创建用户)

客户端操作

[1.5 在客户端制作秘钥文件](#1.5 在客户端制作秘钥文件)

[1.6 客户端挂载(默认是6789端口)](#1.6 客户端挂载(默认是6789端口))


1.创建 CephFS 文件系统 MDS 接口

服务端操作

1.1 在管理节点创建 mds 服务

复制代码
cd /etc/ceph
ceph-deploy mds create node0{1..3}

1.2 创建存储池,启用 ceph 文件系统

复制代码
ceph 文件系统至少需要两个 rados 池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。
ceph osd pool create cephfs_data 512					#创建数据Pool
ceph osd pool create cephfs_metadata 512                #创建元数据pool

#创建 cephfs,命令格式:ceph fs new <FS_NAME> <CEPHFS_METADATA_NAME> <CEPHFS_DATA_NAME>
ceph fs new mycephfs cephfs_metadata cephfs_data		
#启用ceph,元数据Pool在前,数据Pool在后
 
ceph fs ls					
#查看cephfs
ceph fs status mycephfs

1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务

复制代码
ceph -s

ceph mds stat

1.4 创建用户

**语法格式:ceph fs authorize <fs_name> client.<client_id> <path-in-cephfs> rw
#账户为 client.zhangsan,用户 name 为 zhangsan,zhangsan 对ceph文件系统的 / 根目录(注意不是操作系统的根目录)有读写权限
ceph fs authorize mycephfs client.zhangsan / rw | tee /etc/ceph/zhangsan.keyring

账户为 client.lisi,用户 name 为 lisi,lisi 对文件系统的 / 根目录只有读权限,对文件系统的根目录的子目录 /test 有读写权限

ceph fs authorize mycephfs client.lisi / r /test rw | tee /etc/ceph/lisi.keyring**

复制代码
ceph fs authorize mycephfs client.scj / rw | tee /etc/ceph/scj.keyring

ceph fs authorize mycephfs client.tangjun / r /xy101 rw | tee /etc/ceph/tangjun.keyring

客户端操作

1.5 在客户端制作秘钥文件

复制代码
#在admin服务器将创建的两个密钥文件发送给client
scp scj.keyring tangjun.keyring client:/etc/ceph
#client端进行查看
cd /etc/ceph
ls


复制代码
在客户端安装 ceph 软件包
yum install -y ceph 
复制代码
cd /etc/ceph
ceph-authtool -n client.scj -p scj.keyring > scj.key
cat scj.key       #里面即可查到密钥文件
ceph-authtool -n client.tangjun -p tangjun.keyring > tangjun.key
cat tangjun.key   #里面即可查到密钥文件

1.6 客户端挂载(默认是6789端口)

方式一:基于内核

复制代码
cd /opt
mkdir scj tangjun

cd /etc/ceph
mount -t ceph node01:6789,node02:6789,node03:6789:/ /opt/scj/ -o name=scj,secretfile=scj.key
mount -t ceph node01:6789,node02:6789,node03:6789:/ /opt/tangjun/ -o name=tangjun,secretfile=tangjun.key







方式二:基于 fuse 工具

(1)在 ceph 的管理节点给客户端拷贝 ceph 的配置文件 ceph.conf 和管理员账号的秘钥环文件

复制代码
scp ceph.conf ceph.client.admin.keyring client:/etc/ceph

(2)在客户端安装 ceph-fuse

复制代码
 yum install -y ceph-fuse
复制代码
#解挂
umount /opt/scj
umount /opt/tangjun

(3)客户端挂载

复制代码
mkdir /opt/data  #创建挂载目录

ceph-fuse -m node01:6789,node02:6789,node03:6789 /opt/data  #挂载


相关推荐
云计算运维丁丁4 天前
ceph集群架构阐述
ceph·架构
liuy52774 天前
dmsetup 清理ceph osd残留磁盘分区
ceph
斯普信专业组5 天前
ceph数据迁移数据迁移与bacula配置调整优化实战
前端·ceph·github
斯普信专业组7 天前
Ceph异地数据同步之-RBD异地同步复制(下)
linux·服务器·ceph
小马爱打代码8 天前
Kubernetes 中部署 Ceph,构建高可用分布式存储服务
分布式·ceph·kubernetes
斯普信专业组10 天前
Ceph与Bacula运维实战:数据迁移与备份配置优化指南
运维·ceph·github
野猪佩挤18 天前
Ceph集群2025(Squid版)导出高可用NFS集群(上集)
java·服务器·ceph
不死鸟.亚历山大.狼崽子1 个月前
Ceph(1):分布式存储技术简介
ceph
不死鸟.亚历山大.狼崽子1 个月前
Ceph(2):Ceph简介
ceph
深度Linux1 个月前
深入探讨Ceph:分布式存储架构的未来
分布式·ceph·架构·c/c++