CephFS文件系统存储服务

目录

[1.创建 CephFS 文件系统 MDS 接口](#1.创建 CephFS 文件系统 MDS 接口)

服务端操作

[1.1 在管理节点创建 mds 服务](#1.1 在管理节点创建 mds 服务)

[1.2 创建存储池,启用 ceph 文件系统](#1.2 创建存储池,启用 ceph 文件系统)

[1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务](#1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务)

[1.4 创建用户](#1.4 创建用户)

客户端操作

[1.5 在客户端制作秘钥文件](#1.5 在客户端制作秘钥文件)

[1.6 客户端挂载(默认是6789端口)](#1.6 客户端挂载(默认是6789端口))


1.创建 CephFS 文件系统 MDS 接口

服务端操作

1.1 在管理节点创建 mds 服务

复制代码
cd /etc/ceph
ceph-deploy mds create node0{1..3}

1.2 创建存储池,启用 ceph 文件系统

复制代码
ceph 文件系统至少需要两个 rados 池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。
ceph osd pool create cephfs_data 512					#创建数据Pool
ceph osd pool create cephfs_metadata 512                #创建元数据pool

#创建 cephfs,命令格式:ceph fs new <FS_NAME> <CEPHFS_METADATA_NAME> <CEPHFS_DATA_NAME>
ceph fs new mycephfs cephfs_metadata cephfs_data		
#启用ceph,元数据Pool在前,数据Pool在后
 
ceph fs ls					
#查看cephfs
ceph fs status mycephfs

1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务

复制代码
ceph -s

ceph mds stat

1.4 创建用户

**语法格式:ceph fs authorize <fs_name> client.<client_id> <path-in-cephfs> rw
#账户为 client.zhangsan,用户 name 为 zhangsan,zhangsan 对ceph文件系统的 / 根目录(注意不是操作系统的根目录)有读写权限
ceph fs authorize mycephfs client.zhangsan / rw | tee /etc/ceph/zhangsan.keyring

账户为 client.lisi,用户 name 为 lisi,lisi 对文件系统的 / 根目录只有读权限,对文件系统的根目录的子目录 /test 有读写权限

ceph fs authorize mycephfs client.lisi / r /test rw | tee /etc/ceph/lisi.keyring**

复制代码
ceph fs authorize mycephfs client.scj / rw | tee /etc/ceph/scj.keyring

ceph fs authorize mycephfs client.tangjun / r /xy101 rw | tee /etc/ceph/tangjun.keyring

客户端操作

1.5 在客户端制作秘钥文件

复制代码
#在admin服务器将创建的两个密钥文件发送给client
scp scj.keyring tangjun.keyring client:/etc/ceph
#client端进行查看
cd /etc/ceph
ls


复制代码
在客户端安装 ceph 软件包
yum install -y ceph 
复制代码
cd /etc/ceph
ceph-authtool -n client.scj -p scj.keyring > scj.key
cat scj.key       #里面即可查到密钥文件
ceph-authtool -n client.tangjun -p tangjun.keyring > tangjun.key
cat tangjun.key   #里面即可查到密钥文件

1.6 客户端挂载(默认是6789端口)

方式一:基于内核

复制代码
cd /opt
mkdir scj tangjun

cd /etc/ceph
mount -t ceph node01:6789,node02:6789,node03:6789:/ /opt/scj/ -o name=scj,secretfile=scj.key
mount -t ceph node01:6789,node02:6789,node03:6789:/ /opt/tangjun/ -o name=tangjun,secretfile=tangjun.key







方式二:基于 fuse 工具

(1)在 ceph 的管理节点给客户端拷贝 ceph 的配置文件 ceph.conf 和管理员账号的秘钥环文件

复制代码
scp ceph.conf ceph.client.admin.keyring client:/etc/ceph

(2)在客户端安装 ceph-fuse

复制代码
 yum install -y ceph-fuse
复制代码
#解挂
umount /opt/scj
umount /opt/tangjun

(3)客户端挂载

复制代码
mkdir /opt/data  #创建挂载目录

ceph-fuse -m node01:6789,node02:6789,node03:6789 /opt/data  #挂载


相关推荐
1990_super4 天前
虚拟机环境部署Ceph集群的详细指南
ceph
1990_super4 天前
Ceph对象池详解
ceph
1990_super5 天前
使用ceph-deploy安装和配置RADOS Gateway (RGW)并使用S3访问集群
ceph·gateway
野生技术架构师11 天前
分布式存储 Ceph 的演进经验 · SOSP 2019
分布式·ceph
mixboot13 天前
ceph 14.2.22 nautilus Balancer 数据平衡
ceph·balancer·数据平衡
斯普信专业组16 天前
k8s云原生rook-ceph pvc快照与恢复(下)
ceph·云原生·kubernetes
斯普信专业组17 天前
k8s云原生rook-ceph pvc快照与恢复(上)
ceph·云原生·kubernetes
斯普信专业组17 天前
Ceph、K8s、CSI、PVC、PV 深入详解
ceph·容器·kubernetes
mixboot1 个月前
Ceph OSD.419 故障分析
ceph·osd
赵成ccc1 个月前
离线部署三节点 Ceph 分布式存储
分布式·ceph