CephFS文件系统存储服务

目录

[1.创建 CephFS 文件系统 MDS 接口](#1.创建 CephFS 文件系统 MDS 接口)

服务端操作

[1.1 在管理节点创建 mds 服务](#1.1 在管理节点创建 mds 服务)

[1.2 创建存储池,启用 ceph 文件系统](#1.2 创建存储池,启用 ceph 文件系统)

[1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务](#1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务)

[1.4 创建用户](#1.4 创建用户)

客户端操作

[1.5 在客户端制作秘钥文件](#1.5 在客户端制作秘钥文件)

[1.6 客户端挂载(默认是6789端口)](#1.6 客户端挂载(默认是6789端口))


1.创建 CephFS 文件系统 MDS 接口

服务端操作

1.1 在管理节点创建 mds 服务

复制代码
cd /etc/ceph
ceph-deploy mds create node0{1..3}

1.2 创建存储池,启用 ceph 文件系统

复制代码
ceph 文件系统至少需要两个 rados 池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。
ceph osd pool create cephfs_data 512					#创建数据Pool
ceph osd pool create cephfs_metadata 512                #创建元数据pool

#创建 cephfs,命令格式:ceph fs new <FS_NAME> <CEPHFS_METADATA_NAME> <CEPHFS_DATA_NAME>
ceph fs new mycephfs cephfs_metadata cephfs_data		
#启用ceph,元数据Pool在前,数据Pool在后
 
ceph fs ls					
#查看cephfs
ceph fs status mycephfs

1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务

复制代码
ceph -s

ceph mds stat

1.4 创建用户

**语法格式:ceph fs authorize <fs_name> client.<client_id> <path-in-cephfs> rw
#账户为 client.zhangsan,用户 name 为 zhangsan,zhangsan 对ceph文件系统的 / 根目录(注意不是操作系统的根目录)有读写权限
ceph fs authorize mycephfs client.zhangsan / rw | tee /etc/ceph/zhangsan.keyring

账户为 client.lisi,用户 name 为 lisi,lisi 对文件系统的 / 根目录只有读权限,对文件系统的根目录的子目录 /test 有读写权限

ceph fs authorize mycephfs client.lisi / r /test rw | tee /etc/ceph/lisi.keyring**

复制代码
ceph fs authorize mycephfs client.scj / rw | tee /etc/ceph/scj.keyring

ceph fs authorize mycephfs client.tangjun / r /xy101 rw | tee /etc/ceph/tangjun.keyring

客户端操作

1.5 在客户端制作秘钥文件

复制代码
#在admin服务器将创建的两个密钥文件发送给client
scp scj.keyring tangjun.keyring client:/etc/ceph
#client端进行查看
cd /etc/ceph
ls


复制代码
在客户端安装 ceph 软件包
yum install -y ceph 
复制代码
cd /etc/ceph
ceph-authtool -n client.scj -p scj.keyring > scj.key
cat scj.key       #里面即可查到密钥文件
ceph-authtool -n client.tangjun -p tangjun.keyring > tangjun.key
cat tangjun.key   #里面即可查到密钥文件

1.6 客户端挂载(默认是6789端口)

方式一:基于内核

复制代码
cd /opt
mkdir scj tangjun

cd /etc/ceph
mount -t ceph node01:6789,node02:6789,node03:6789:/ /opt/scj/ -o name=scj,secretfile=scj.key
mount -t ceph node01:6789,node02:6789,node03:6789:/ /opt/tangjun/ -o name=tangjun,secretfile=tangjun.key







方式二:基于 fuse 工具

(1)在 ceph 的管理节点给客户端拷贝 ceph 的配置文件 ceph.conf 和管理员账号的秘钥环文件

复制代码
scp ceph.conf ceph.client.admin.keyring client:/etc/ceph

(2)在客户端安装 ceph-fuse

复制代码
 yum install -y ceph-fuse
复制代码
#解挂
umount /opt/scj
umount /opt/tangjun

(3)客户端挂载

复制代码
mkdir /opt/data  #创建挂载目录

ceph-fuse -m node01:6789,node02:6789,node03:6789 /opt/data  #挂载


相关推荐
oMcLin9 小时前
如何在 Manjaro Linux 上实现高效的 Ceph 存储集群,提升大规模文件存储的冗余性与性能?
linux·运维·ceph
wniuniu_2 天前
ceph的osd
java·前端·ceph
mixboot3 天前
Ceph PG 不一致问题排查与修复 scrub errors
ceph·scrub
斯普信专业组3 天前
从 Deep Scrubbing 滞后到集群性能跃迁:一次“以小见大”的 Ceph 优化实录
ceph
oMcLin3 天前
如何在CentOS 7.9 服务器上配置并优化 Ceph 分布式存储集群,提升数据冗余与性能?
服务器·ceph·centos
mixboot4 天前
Ceph BlueFS 溢出修复
ceph·bluefs溢出
only火车头8 天前
升级 ceph (16.2 -> 18.2) ceph mon 启动失败
服务器·ceph
iconball10 天前
个人用云计算学习笔记 --35 Ceph 分布式存储
运维·笔记·ceph·学习·云计算
become__better11 天前
判断ceph osd 节点磁盘异常
linux·运维·ceph
2301_8000509911 天前
ceph分布式存储
笔记·分布式·ceph