CephFS文件系统存储服务

目录

[1.创建 CephFS 文件系统 MDS 接口](#1.创建 CephFS 文件系统 MDS 接口)

服务端操作

[1.1 在管理节点创建 mds 服务](#1.1 在管理节点创建 mds 服务)

[1.2 创建存储池,启用 ceph 文件系统](#1.2 创建存储池,启用 ceph 文件系统)

[1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务](#1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务)

[1.4 创建用户](#1.4 创建用户)

客户端操作

[1.5 在客户端制作秘钥文件](#1.5 在客户端制作秘钥文件)

[1.6 客户端挂载(默认是6789端口)](#1.6 客户端挂载(默认是6789端口))


1.创建 CephFS 文件系统 MDS 接口

服务端操作

1.1 在管理节点创建 mds 服务

复制代码
cd /etc/ceph
ceph-deploy mds create node0{1..3}

1.2 创建存储池,启用 ceph 文件系统

复制代码
ceph 文件系统至少需要两个 rados 池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。
ceph osd pool create cephfs_data 512					#创建数据Pool
ceph osd pool create cephfs_metadata 512                #创建元数据pool

#创建 cephfs,命令格式:ceph fs new <FS_NAME> <CEPHFS_METADATA_NAME> <CEPHFS_DATA_NAME>
ceph fs new mycephfs cephfs_metadata cephfs_data		
#启用ceph,元数据Pool在前,数据Pool在后
 
ceph fs ls					
#查看cephfs
ceph fs status mycephfs

1.3 查看mds状态,一个up,其余两个待命,目前的工作的是node02上的mds服务

复制代码
ceph -s

ceph mds stat

1.4 创建用户

**语法格式:ceph fs authorize <fs_name> client.<client_id> <path-in-cephfs> rw
#账户为 client.zhangsan,用户 name 为 zhangsan,zhangsan 对ceph文件系统的 / 根目录(注意不是操作系统的根目录)有读写权限
ceph fs authorize mycephfs client.zhangsan / rw | tee /etc/ceph/zhangsan.keyring

账户为 client.lisi,用户 name 为 lisi,lisi 对文件系统的 / 根目录只有读权限,对文件系统的根目录的子目录 /test 有读写权限

ceph fs authorize mycephfs client.lisi / r /test rw | tee /etc/ceph/lisi.keyring**

复制代码
ceph fs authorize mycephfs client.scj / rw | tee /etc/ceph/scj.keyring

ceph fs authorize mycephfs client.tangjun / r /xy101 rw | tee /etc/ceph/tangjun.keyring

客户端操作

1.5 在客户端制作秘钥文件

复制代码
#在admin服务器将创建的两个密钥文件发送给client
scp scj.keyring tangjun.keyring client:/etc/ceph
#client端进行查看
cd /etc/ceph
ls


复制代码
在客户端安装 ceph 软件包
yum install -y ceph 
复制代码
cd /etc/ceph
ceph-authtool -n client.scj -p scj.keyring > scj.key
cat scj.key       #里面即可查到密钥文件
ceph-authtool -n client.tangjun -p tangjun.keyring > tangjun.key
cat tangjun.key   #里面即可查到密钥文件

1.6 客户端挂载(默认是6789端口)

方式一:基于内核

复制代码
cd /opt
mkdir scj tangjun

cd /etc/ceph
mount -t ceph node01:6789,node02:6789,node03:6789:/ /opt/scj/ -o name=scj,secretfile=scj.key
mount -t ceph node01:6789,node02:6789,node03:6789:/ /opt/tangjun/ -o name=tangjun,secretfile=tangjun.key







方式二:基于 fuse 工具

(1)在 ceph 的管理节点给客户端拷贝 ceph 的配置文件 ceph.conf 和管理员账号的秘钥环文件

复制代码
scp ceph.conf ceph.client.admin.keyring client:/etc/ceph

(2)在客户端安装 ceph-fuse

复制代码
 yum install -y ceph-fuse
复制代码
#解挂
umount /opt/scj
umount /opt/tangjun

(3)客户端挂载

复制代码
mkdir /opt/data  #创建挂载目录

ceph-fuse -m node01:6789,node02:6789,node03:6789 /opt/data  #挂载


相关推荐
一个行走的民10 小时前
分布式系统中 Map 增量(Delta)是否需要持久化
ceph
一个行走的民2 天前
BlueStore 核心原理与关键机制
ceph
奋斗的小青年I4 天前
Proxmox VE Ceph 超融合集群落地实战
windows·ceph·vmware·pve·超融合·proxmox
一个行走的民4 天前
深度剖析 Ceph PG 分裂机制:原理、底层、实操、影响、线上避坑(最全完整版)
ceph·算法
一个行走的民4 天前
Ceph 核心概念精讲:彻底搞懂 PG、PGP、pg_num、pgp_num
ceph
Mr.王83517 天前
Kubernetes宿主机本地盘池化管理
ceph·云原生·容器·kubernetes
一个行走的民21 天前
CEPH OSD心跳机制
ceph
一个行走的民21 天前
Ceph PG 状态详解与线上故障处理
网络·ceph
一个行走的民21 天前
Ceph MDS 状态机与 Monitor 中的状态流转分析
ceph
Virtual_human08061 个月前
在VMware workstation上,部署3节点ceph测试,及加入openstack
ceph·云计算·openstack·osd·ceph集群