深度解析FastDFS:构建高效分布式文件存储的实战指南(上)

文章目录

  • 一、FastDFS简介
    • [1.1 概述](#1.1 概述)
    • [1.2 特性](#1.2 特性)
  • 二、FastDFS原理架构
    • [2.1 FastDFS角色](#2.1 FastDFS角色)
    • [2.2 存储策略](#2.2 存储策略)
    • [2.3 上传过程](#2.3 上传过程)
    • [2.4 文件同步](#2.4 文件同步)
    • [2.5 下载过程](#2.5 下载过程)
  • 三、FastDFS适用场景
  • 四、同类中间件对比
    • [4.1 FastDFS和集中存储方式对比](#4.1 FastDFS和集中存储方式对比)
    • [4.2 FastDFS与其他文件系统的对比](#4.2 FastDFS与其他文件系统的对比)
  • 五、FastDFS部署
    • [5.1 单机部署](#5.1 单机部署)
      • [5.1.1 使用的系统软件](#5.1.1 使用的系统软件)
      • [5.1.2 编译环境](#5.1.2 编译环境)
      • [5.1.3 安装libfastcommon](#5.1.3 安装libfastcommon)
      • [5.1.4 安装FastDFS](#5.1.4 安装FastDFS)
      • [5.1.5 安装fastdfs-nginx-module](#5.1.5 安装fastdfs-nginx-module)
      • [5.1.6 安装nginx](#5.1.6 安装nginx)
      • [5.1.7 tracker配置](#5.1.7 tracker配置)
      • [5.1.8 tracker服务启动](#5.1.8 tracker服务启动)
      • [5.1.9 storage配置](#5.1.9 storage配置)
      • [5.1.10 storage服务启动](#5.1.10 storage服务启动)
      • [5.1.11 client测试](#5.1.11 client测试)
      • [5.1.12 配置nginx访问](#5.1.12 配置nginx访问)
      • [5.1.13 nginx服务启动](#5.1.13 nginx服务启动)
      • [5.1.14 web浏览器测试](#5.1.14 web浏览器测试)
    • [5.2 集群部署](#5.2 集群部署)
      • [5.2.1 FastDFS集群架构](#5.2.1 FastDFS集群架构)
      • [5.2.2 安装FastDFS相关软件](#5.2.2 安装FastDFS相关软件)
      • [5.2.3 tracker节点配置](#5.2.3 tracker节点配置)
      • [5.2.4 storage节点配置](#5.2.4 storage节点配置)
      • [5.2.5 查看FastDFS集群状态](#5.2.5 查看FastDFS集群状态)
      • 5.2.6文件的上传
      • 5.2.7文件的下载
      • [5.2.8 文件的删除](#5.2.8 文件的删除)
    • [5.3 k8s部署](#5.3 k8s部署)
      • [5.3.1 创建tracker.yaml文件](#5.3.1 创建tracker.yaml文件)
      • [5.3.2 创建tracker.yaml文件](#5.3.2 创建tracker.yaml文件)
      • [5.3.3 创建service.yaml文件](#5.3.3 创建service.yaml文件)
      • [5.3.4 应该yaml文件](#5.3.4 应该yaml文件)
    • [5.4 FastDFS集群维护](#5.4 FastDFS集群维护)
      • [5.4.1 tracker节点维护](#5.4.1 tracker节点维护)
      • [5.4.2 storage节点维护](#5.4.2 storage节点维护)
      • [5.4.3 fastdfs_storage七种状态](#5.4.3 fastdfs_storage七种状态)

一、FastDFS简介

1.1 概述

FastDFS 是一个开源的高性能分布式文件系统(DFS)。 它的主要功能包括:文件存储,文件同步和文件访问(上传、下载),以及高容量和负载平衡。主要解决了海量数据存储问题,特别适合以中小文件(建议范围:4KB < file_size <500MB)为载体的在线服务。

FastDFS 设计是用来存储小文件的,过大的文件处理方案是拆分为小文件,可跟踪小文件的上传情况。 如果应用场景都是处理大文件,可能选择其他分布式文件系统方案会更合适。

1.2 特性

FastDFS 为互联网量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,并注重高可用、高性能等指标,使用 FastDFS 很容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。

优点:

  • 文件不分块存储,文件和系统中的文件一一对应。
  • 对文件内容做 hash 处理,避免出现重复文件,节约磁盘空间。
  • 下载文件支持 HTTP 协议,可基于内置 Web Server 或外部 Web Server。
  • 支持在线扩容,动态添加卷。
  • 支持文件冗余备份和负载均衡。
  • 存储服务器上可以保存文件属性(meta-data)
  • V2.0 网络通信采用 libevent,支持大并发访问,整体性能更好

缺点:

  • 直接按文件存储,可直接查看文件内容,缺乏文件安全性。
  • 数据同步无校验,存在静默 IO 问题,降低系统可用性。
  • 单线程数据同步,仅适合存储小文件(1)。
  • 备份数根据存储分卷(分组)决定,缺乏文件备份数设置灵活性。
  • 单个挂载点异常会导致整个存储节点下线。
  • 缺乏多机房容灾支持。
  • 静态的负载均衡机制

二、FastDFS原理架构

2.1 FastDFS角色

FastDFS是一个开源的轻量级分布式文件系统,由管理服务器(tracker server)、存储服务器(storage server)和客户端(client)三个部分组成

**Tracker Server:**跟踪服务器,主要做调度工作,起到均衡的作用;负责管理所有的 storage server 和 group,每个 storage 在启动后会连接 Tracker,告知自己所属 group 等信息,并保持周期性心跳。

**Storage Server:**存储服务器,主要提供容量和备份服务;以 group 为单位,每个 group 内可以有多台 storage server,数据互为备份。

**Client:**客户端,上传下载数据的服务器,也就是我们自己的项目所部署在的服务器。

Tracker 相当于一个调度中心,上传和下载都通过它来进行分配指定。

Storage cluster 部分,由 Volume1、Volume2......VolumeK 组成,它们称为卷(或者叫做组),卷与卷之间是平行的关系,可以根据资源的使用情况随时增加,卷内服务器文件相互同步备份,以达到容灾的目的。

2.2 存储策略

为了支持大容量,存储节点(服务器)采用了分卷(或分组)的组织方式。存储系统由一个或多个卷组成,卷与卷之间的文件是相互独立的,所有卷的文件容量累加就是整个存储系统中的文件容量。一个卷可以由一台或多台存储服务器组成,一个卷下的存储服务器中的文件都是相同的,卷中的多台存储服务器起到了冗余备份和负载均衡的作用。

在卷中增加服务器时,同步已有的文件由系统自动完成,同步完成后,系统自动将新增服务器切换到线上提供服务。当存储空间不足或即将耗尽时,可以动态添加卷。只需要增加一台或多台服务器,并将它们配置为一个新的卷,这样就扩大了存储系统的容量。

2.3 上传过程

当服务启动之后,Storage Server 会定期的向 Tracker Server 发送存储信息。如果 Tracker Server 是集群形式,则每个 Tracker 之间的关系是对等的,客户端上传时选择任意一个 Tracker 即可。

整体流程:当客户端请求 Tracker 进行上传操作时,会获取存储服务器相关信息,主要包括 IP 和端口。根据返回信息上传文件,通过存储服务器写入磁盘,并返回给客户端 file_id、路径信息、文件名等信息。

对应流程图如下:

其中,当 Tracker 收到客户端上传文件的请求时,会为该文件分配一个可以存储文件的 group,当选定了 group 后就要决定给客户端分配 group 中的哪一个 storage server。

当分配好 storage server 后,客户端向 storage 发送写文件请求,storage 将会为文件分配一个数据存储目录。然后为文件分配一个 fileid,最后根据以上的信息生成文件名存储文件。

生成的文件名基本格式如下:

  • 组名:文件上传后所在的 storage 组名称,在文件上传成功后有 storage 服务器返回, 需要客户端自行保存。
  • 虚拟磁盘路径:storage 配置的虚拟路径,与磁盘选项 store_path*对应。如果配置了 store_path0 则是 M00,如果配置了 store_path1 则是 M01,以此类推。
  • 数据两级目录:storage 服务器在每个虚拟磁盘路径下创建的两级目录,用于存储数据 文件。
  • 文件名:与文件上传时不同。是由存储服务器根据特定信息生成,文件名包含:源存储 服务器 IP 地址、文件创建时间戳、文件大小、随机数和文件拓展名等信息。

2.4 文件同步

写文件时,客户端将文件写至 group 内一个 storage server 即认为写文件成功,storage server 写完文件后,会由后台线程将文件同步至同 group 内其他的 storage server。

每个 storage 写文件后,同时会写一份 binlog,binlog 里不包含文件数据,只包含文件名等元信息,这份 binlog 用于后台同步,storage 会记录向 group 内其他 storage 同步的进度,以便重启后能接上次的进度继续同步;进度以时间戳的方式进行记录,所以最好能保证集群内所有 server 的时钟保持同步。

storage 的同步进度会作为元数据的一部分汇报到 tracker 上,tracker 在选择读 storage 的时候会以同步进度作为参考。

2.5 下载过程

跟上传一样,在下载时客户端可以选择任意 Tracker server。

客户端带文件名信息请求 Tracker,Tracker 从文件名中解析出文件的 group、大小、创建时间等信息,然后选择一个 storage 用来服务处理请求,返回对应文件。

对应流程图如下:

如果是基于 Web 的 http 请求,此处的 Client 可以是 Nginx 代理服务。下面这张图更加形象的描述了相关的流程。

三、FastDFS适用场景

FastDFS 是为互联网应用量身定做的一套分布式文件存储系统,非常适合用来存储用户图片、视频、文档等文件,不适合分布式计算场景

电商网站:海量商品图片

视频网站:海量视频文件

网盘 : 海量文件

社交网站:海量图片

四、同类中间件对比

4.1 FastDFS和集中存储方式对比

4.2 FastDFS与其他文件系统的对比

五、FastDFS部署

5.1 单机部署

说明:准备1台cento7实例,ip:192.168.52.1

5.1.1 使用的系统软件

名称 说明
centos 7.x
libfastcommon FastDFS分离出的一些公用函数包
FastDFS FastDFS本体
fastdfs-nginx-module FastDFS和nginx的关联模块,作用:访问源文件,由于上传一个大文件到一个组的一个stoage1服务器后,这里的同组的storage2将会进行进行同步复制,如果复制没有完成,用户访问值storage2的时候,那么这个将会没有办法完整访问的,所以fastdfs-nginx-module这个模块,将会查找一个源文件,也就是存在storage1的服务器上,可以访问storage1上的文件
nginx nginx1.15.4

5.1.2 编译环境

CentOS系统
# yum install git gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel openssl-devel wget vim -y
Debian系统
# apt-get -y install git gcc g++ make automake autoconf libtool pcre2-utils libpcre2-dev zlib1g zlib1g-dev openssl libssh-dev wget vim

5.1.3 安装libfastcommon

# git clone https://github.com/happyfish100/libfastcommon.git --depth 1
# cd libfastcommon/
# ./make.sh && ./make.sh install #编译安装

5.1.4 安装FastDFS

# git clone https://github.com/happyfish100/fastdfs.git --depth 1
# cd fastdfs/
# ./make.sh && ./make.sh install #编译安装

#配置文件准备
# cp /etc/fdfs/tracker.conf.sample /etc/fdfs/tracker.conf
# cp /etc/fdfs/storage.conf.sample /etc/fdfs/storage.conf
# cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf #客户端文件,测试用
# cp /usr/local/src/fastdfs/conf/http.conf /etc/fdfs/ #供nginx访问使用
# cp /usr/local/src/fastdfs/conf/mime.types /etc/fdfs/ #供nginx访问使用

5.1.5 安装fastdfs-nginx-module

# git clone https://github.com/happyfish100/fastdfs-nginx-module.git --depth 1
# cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs

5.1.6 安装nginx

# wget http://nginx.org/download/nginx-1.15.4.tar.gz #下载nginx压缩包
# tar -zxvf nginx-1.15.4.tar.gz #解压
# cd nginx-1.15.4/

#添加fastdfs-nginx-module模块
# ./configure --add-module=/usr/local/src/fastdfs-nginx-module/src/ 
# make && make install #编译安装

5.1.7 tracker配置

# vim /etc/fdfs/tracker.conf#需要修改的内容如下
port=22122  # tracker服务器端口(默认22122,一般不修改)
base_path=/home/dfs  # 存储日志和数据的根目录

5.1.8 tracker服务启动

/etc/init.d/fdfs_trackerd start #启动tracker服务
/etc/init.d/fdfs_trackerd restart #重启动tracker服务
/etc/init.d/fdfs_trackerd stop #停止tracker服务
chkconfig fdfs_trackerd on #自启动tracker服务

5.1.9 storage配置

# vim /etc/fdfs/storage.conf
#需要修改的内容如下
port=23000  # storage服务端口(默认23000,一般不修改)
base_path=/home/dfs  # 数据和日志文件存储根目录
store_path0=/home/dfs  # 第一个存储目录
tracker_server=192.168.52.1:22122  # tracker服务器IP和端口
http.server_port=8888  # http访问文件的端口(默认8888,看情况修改,和nginx中保持一致)

5.1.10 storage服务启动

/etc/init.d/fdfs_storaged start #启动storage服务
/etc/init.d/fdfs_storaged restart #重动storage服务
/etc/init.d/fdfs_storaged stop #停止动storage服务
chkconfig fdfs_storaged on #自启动storage服务

5.1.11 client测试

# vim /etc/fdfs/client.conf#需要修改的内容如下
base_path=/home/dfs
tracker_server=192.168.52.1:22122    #tracker服务器IP和端口

#保存后测试,返回ID表示成功 如:group1/M00/00/00/xx.tar.gz
# fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/nginx-1.15.4.tar.gz

5.1.12 配置nginx访问

# vim /etc/fdfs/mod_fastdfs.conf
#需要修改的内容如下
tracker_server=192.168.52.1:22122  #tracker服务器IP和端口
url_have_group_name=true
store_path0=/home/dfs

#配置nginx.config
# vim /usr/local/nginx/conf/nginx.conf
#添加如下配置
server {
    listen       8888;    ## 该端口为storage.conf中的http.server_port相同
    server_name  localhost;
    location ~/group[0-9]/ {
        ngx_fastdfs_module;
    }
    error_page   500 502 503 504  /50x.html;
    location = /50x.html {
    root   html;
    }
}

5.1.13 nginx服务启动

/usr/local/nginx/sbin/nginx #启动nginx
/usr/local/nginx/sbin/nginx -s reload #重启nginx
/usr/local/nginx/sbin/nginx -s stop #停止nginx

5.1.14 web浏览器测试

#测试下载,用外部浏览器访问刚才已传过的nginx安装包,引用返回的ID
http://192.168.52.1:8888/group1/M00/00/00/wKgAQ1pysxmAaqhAAA76tz-dVgg.tar.gz
#弹出下载单机部署全部跑通

5.2 集群部署

5.2.1 FastDFS集群架构

说明:2台tracker节点、2组storage。

group1对应storage1和storage2,group2对应storage3和storage4

5.2.2 安装FastDFS相关软件

说明:

所有节点安装参考单机部署"5.1.3安装libfastcommon"和5.1.4安装FastDFS章节

5.2.3 tracker节点配置

FastDFS 配置文件的默认目录/etc/fdfs,操作如下:

  1. 编辑 tracker.conf 配置文件,命令 vim tracker.conf,修改如下内容:
    base_path=/tracker ##数据和日志的存放路径
    store_lookup=2 ##存储组的选择方式,负载均衡方式,这是默认方式
    store_server=0 ##存储节点的选择方式,轮询方式,这是默认方式
    store_path=2 ##存储路径的选择方式,负载均衡方式
    thread_stack_size = 128KB ##线程栈大小,默认 64K
    storage_sync_file_max_delay=600 ##存储节点间文件同步的最大延迟时间,默认 1 天,此处测试 改为 10 分钟
    rotate_error_log = true ##启用错误日志
    其他参数默认即可。
  2. 启动 tracker 服务器:
    fdfs_trackerd /etc/fdfs/tracker.conf start
    如果报错,查看日志:
    $base_path/logs/trackerd.log ,此处配置的base_path=/tracker ,
    所以日志文件路径:/tracker/logs/trackerd.log

5.2.4 storage节点配置

  1. 进入配置文件目录,使用 sample 文件复制一份 storage.conf 文件进行修改:
    cd /etc/fdfs
    cp storage.conf.sample storage.conf
  2. 编辑 storage.conf 配置文件,命令 vim storage.conf,修改如下内容:

storage1 和 storage2 的配置文件:

group_name=group1 ##组名 
base_path=/fastdfs ##基础路径,存放 storage 运行所需文件 
sync_wait_msec=1000 ##同步检查间隔时间 1000ms 
store_path0=/storage ##文件存放路径 
tracker_server=192.168.182.101:22122 ##storage 注册到 tracker1 
tracker_server=192.168.182.102:22122 ##storage 注册到 tracker2 

storage3 和 storage4 的配置文件:

group_name=group2 ##组名 
base_path=/fastdfs ##基础路径,存放 storage 运行所需文件 
sync_wait_msec=1000 ##同步检查间隔时间 1000ms 
##store_path0=/storage ##如果不配置 store_path,那么文件默认存放在${base_path}/data 下 
store_path0,实际生产环境中,尽量将所有节点的存储位置保持一致,方便管理。 
tracker_server=192.168.182.101:22122 ##storage 注册到 tracker1 
tracker_server=192.168.182.102:22122 ##storage 注册到 tracker2 
  1. 启动 storage 服务器:

    在四个存储节点执行启动命令:
    fdfs_storaged /etc/fdfs/storage.conf start
    如果报错,查看日志:
    $base_path/logs/storaged.log 此处配置的 base_path=/fastdfs , 所以日志文件路径:/fastdfs/logs/storaged.log

5.2.5 查看FastDFS集群状态

  1. 在客户端安装 FastDFS(此处选择 tracker1 作为客户端)。

  2. 配置 client.conf 文件

    cp client.conf.sample client.conf
    vim client.conf
    client 的配置文件:
    base_path=/client ##配置 client 的基本目录
    tracker_server=192.168.182.101:22122 ##配置 tracker1 服务的地址
    tracker_server=192.168.182.102:22122 ##配置 tracker2 服务的地址

  3. 使用 fdfs_monitor 命令查看 FastDFS 文件服务器的状态:

    fdfs_monitor /etc/fdfs/client.conf -h 192.168.182.101 list
    fdfs_monitor /etc/fdfs/client.conf -h 192.168.182.102 list

    参数说明:
    /etc/fdfs/client.conf:客户端配置文件
    -h 192.168.182.101/-h 192.168.182.102:tracker1/tracker2 服务器的 ip 地址
    list:显示指定的 tracker 的服务器信息

以 tracker1 192.168.182.101 为例,查询结果如下:




注:如果 tracker1 和 tracker2 的信息都能查看到 group1 和 group2 的信息,说明部署成功,如果部署过程中出现问题,需要参照日志文件中的信息进行修正。

5.2.6文件的上传

上传文件命令:fdfs_upload_file 
语法: 
fdfs_upload_file <config_file> <local_filename> [storage_ip:port] [store_path_index] 
<config_file>:客户端配置文件名称,必须有。 
<local_filename>:要上传的文件名称,必须有。 
[storage_ip:port]:上传的存储节点名称,选择项。 
[store_path_index]:存储路径,选择项。 

示例,上传 testupload 文件:
返回值文件 ID:【group 名+节点上存储目录编号+storage 节点创建的目录+加密的一个文件名】,

根据文件 ID,可以查看文件信息,使用 fdfs_file_info 命令,示例:

5.2.7文件的下载

下载文件命令:fdfs_download_file 
语法: 
fdfs_download_file <config_file> <file_id> [local_filename] [<download_offset> <download_bytes>] 
<config_file> :客户端配置文件,必须有 
<file_id> :要下载的文件 ID,必须有。 
[local_filename] :存储到本地的文件,选择项。 
[<download_offset> <download_bytes>]:下载偏移量、下载大小,选择项。 
示例: 
fdfs_download_file /etc/fdfs/client.conf 
group1/M00/00/00/wKi2eVZf0KuAEPaaAAAAPm9mCTM1183578 /root/testdownload

5.2.8 文件的删除

文件删除命令:fdfs_delete_file 
语法: 
fdfs_delete_file <config_file> <file_id> 
<config_file> :客户端配置文件,必须有。 
<file_id>:文件 ID,必须有。 

示例:

5.3 k8s部署

5.3.1 创建tracker.yaml文件

**tracker.yaml部署yaml文件**
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
    name: tracker-deploy # 部署的容器名称
    namespace: fastdfs # 部署到的命名空间
    labels:
        name: tracker-deploy
spec:# 该 Deployment 的规格说明
    replicas: 1 # 副本数
    template:
        metadata:
            labels:
                app: tracker
        spec:
            nodeSelector:
              fastdfs: tracker # 选择器,nodeSelector根据 label 指定pod起在哪台机器上,根据自身所需进行修改,必须先在节点上面定义此标签
            terminationGracePeriodSeconds: 0
            containers:
            - name: tracker
              image: fastdfs
              imagePullPolicy: IfNotPresent#获取镜像的策略 Always表示下载镜像 IfNotPresent表示优先使用本地镜像,否则下载镜像,Nerver表示仅使用本地镜像
              ports:
              - containerPort: 22122
              protocol: TCP #端口协议,支持TCP和UDP,默认TCP
              volumeMounts:
              - name: tracker-volume
                mountPath: /var/fdfs
              command: ["/usr/bin/start.sh","tracker"]
            volumes:
            - name: tracker-volume
              hostPath:
                path: /home/data/fastdfs/tracker # 在宿主机上存储的地址

5.3.2 创建tracker.yaml文件

**storage.yaml部署yaml文件**
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
    name: storage0-deploy
    namespace: fastdfs
    labels:
        name: storage0-deploy
spec:
    replicas: 1
    template:
        metadata:
            labels:
                app: storage0
        spec:
            nodeSelector:
              fastdfs: storage0
            terminationGracePeriodSeconds: 0
            containers:
            - name: storage0
              image: fastdfs # 表示引用镜像的地址
              imagePullPolicy: IfNotPresent
              ports:
              - containerPort: 22122
              protocol: TCP #端口协议,支持TCP和UDP,默认TCP
              volumeMounts:
              - name: storage0-volume
                mountPath: /var/fdfs
              env:
              - name: TRACKER_SERVER
                value: 10.96.0.110:22122
              command: ["/usr/bin/start.sh","storage"]
            volumes:
            - name: storage0-volume
              hostPath:
                path: /home/data/fastdfs/storage0 #在宿主机上存储的地址

5.3.3 创建service.yaml文件

**创建tracker和storage的service文件**
apiVersion: v1
kind: Service
metadata:
    name: tracker
    labels:
        app: tracker
    namespace: fastdfs
spec:
    selector:
        app: tracker # 这里选择器一定要选择容器的标签
    type: ClusterIP
    ports:
    - name: "22122"
      port: 22122
      targetPort: 22122
      nodePort: 22122
      
---
apiVersion: v1
kind: Service
metadata:
    name: storage0
    labels:
        app: storage0
    namespace: fastdfs
spec:
    selector:
        app: storage0
    type: NodePort
    ports:
    - name: "23000"
      port: 23000
      targetPort: 23000
      nodePort: 23000

5.3.4 应该yaml文件

kubectl apply -f tracker.yaml storage.yaml service.yaml

注:资源清单应用后pod状态是running即可

5.4 FastDFS集群维护

5.4.1 tracker节点维护

tracker的添加和删除比较麻烦,不光要修改tracker的配置文件,原有的存储节点配置文件也要修改。所有tracker之间是对等的。

5.4.1.1 添加tracker节点

添加一个节点 tracker3,tracker3只监控group2,查看tracker3的状态并通过tracker3上传文件。 tracker3主机ip为192.168.182.103。参照FastDFS 的安装步骤安装 FastDFS并修改 client.conf 配置文件(将 tracker1 或 tracker2上的client.conf 直接scp到tracker3),启动 tracker3服务。

停止group2中storage3,storage4的存储服务

修改storage3,storage4的配置文件storage.conf,添加tracker3的配置内容并保存

重启storage3,storage4节点,并在客户端配置文件中添加tracker3的信息

在客户端查看tracker3服务器的状态信息

发现即使在storage1和storage2中没有配置tracker3的信息,在tracker3启动后,tracker在启动后也能管理所有的group,测试上传文件

查看服务器存储目录下内容:

storage3和storage4中的目录全部存有上传后的file11

storage1和storage2中的目录全部存有上传后的file11

删除客户端配置文件中的tracker1和tracker2 的配置,只保留tracker3的配置

尝试将文件file11上传到storage1节点,仍然成功

查看storage1存储目录下文件

结论:从添加tracker3节点得出结论:即使tracker3只有group2向其注册,tracker3启动后,和其他的tracker节点是等效的,也能向其他节点监听的group中上传数据,即使其他节点停机。

注:生产环境中新增tracker节点,所有storage节点和客户端配置文件都需要添加新增tracker-ip地址。同时需要提前和相应业务沟通并发送通知

5.4.1.2 删除tracker节点

  1. 将各个storage节点配置文件中的tracker_server=IP:PORT 删除,重启storage。这样 storage节点就不再向tracker推送信息。
  2. 停止tracker节点服务
  3. 删除客户端配置文件中的tracker_server=IP:PORT

5.4.2 storage节点维护

5.4.2.1 添加storage节点

  1. 安装Storage并配置storage.conf
  2. 如果在某组中新增的storage节点,注意配置文件组名和存储路径
  3. 如果是新增1组storage节点,注意不要和现有组重名。
  4. storage节点启动服务即可
  5. 通过fdfs_monitor /etc/fdfs/client.conf查看新增storage节点信息

5.4.2.2 删除storage节点

  1. 停止storage节点服务
  2. 通过fdfs_monitor命令删除
    fdfs_monitor /etc/fdfs/client.conf delete group1
  3. 查看集群情况fdfs_monitor命令可以到对应的storage节点状态为DELETED
    fdfs_monitor /etc/fdfs/client.conf

5.4.3 fastdfs_storage七种状态

# FDFS_STORAGE_STATUS:INIT      :初始化,尚未得到同步已有数据的源服务器
# FDFS_STORAGE_STATUS:WAIT_SYNC :等待同步,已得到同步已有数据的源服务器
# FDFS_STORAGE_STATUS:SYNCING   :同步中
# FDFS_STORAGE_STATUS:DELETED   :已删除,该服务器从本组中摘除
# FDFS_STORAGE_STATUS:OFFLINE   :离线
# FDFS_STORAGE_STATUS:ONLINE    :在线,尚不能提供服务
# FDFS_STORAGE_STATUS:ACTIVE    :在线,可以提供服务
相关推荐
孙克旭_32 分钟前
第五章 RabbitMQ高级
分布式·rabbitmq
Mr.Demo.2 小时前
[RabbitMQ] 保证消息可靠性的三大机制------消息确认,持久化,发送方确认
分布式·rabbitmq
小扳3 小时前
微服务篇-深入了解使用 RestTemplate 远程调用、Nacos 注册中心基本原理与使用、OpenFeign 的基本使用
java·运维·分布式·后端·spring·微服务·架构
LightOfNight3 小时前
Redis设计与实现第14章 -- 服务器 总结(命令执行器 serverCron函数 初始化)
服务器·数据库·redis·分布式·后端·缓存·中间件
cnsxjean12 小时前
SpringBoot集成Minio实现上传凭证、分片上传、秒传和断点续传
java·前端·spring boot·分布式·后端·中间件·架构
桃园码工18 小时前
3-测试go-redis+redsync实现分布式锁 --开源项目obtain_data测试
redis·分布式·golang
sx_170618 小时前
Spark面试题
大数据·分布式·spark
wclass-zhengge20 小时前
02微服务系统与设计(D1_走出微服务误区:避免从单体到分布式单体)
分布式·微服务·架构
ZOMI酱21 小时前
【AI系统】分布式通信与 NVLink
人工智能·分布式
scc21401 天前
kafka学习-02
分布式·学习·kafka