文件分片上传设计

shigen日更文章的博客写手,擅长Java、python、vue、shell等编程语言和各种应用程序、脚本的开发。记录成长,分享认知,留住感动。

现在是接近凌晨了,突然有伙伴给我提到了文件分片上传的事情,我一想,这个我熟悉呀。因为在若干月前,我想亲手写了这部分的代码,还给自己整理出了飞书文档。对,一看文件,原来是遥远的2023年6月20日

其实说分片上传,原理很简单,就是前端分片、上传,后端的解析合并。其实半句话就可以讲清楚,但是代码实现起来要花很大的功夫。

今天的代码案例shigen选取的是node.js作为后端服务写的文件上传。

我们先来看一下实现的效果:

整体的传输效果很快,会在文件夹里存储分片,在所有的分片上传完毕之后,整合成一个文件。我可以直接的打开和预览。

那代码怎么设计的呢?这是个核心的问题。一起来和shigen看看吧。

代码设计

前端

文件名为index.html

xml 复制代码
 <html lang="en">
 ​
 <head>
     <meta charset="UTF-8">
     <meta name="viewport" content="width=device-width, initial-scale=1.0">
     <title>file-upload</title>
 </head>
 ​
 <body>
     <input type="file" onchange="selFile(event)" />
     <script src="https://cdn.bootcdn.net/ajax/libs/axios/1.3.4/axios.min.js"></script>
 ​
     <script>
         // default size: 0.5MB
         function createThunk(file, size = 1024 * 1024 * 0.5) {
             const res = [];
             let cur = 0
             while (cur < file.size) {
                 res.push({
                     tempFile: file.slice(cur, cur + size),
                 });
                 cur += size;
             }
             return res;
         }
 ​
         function selFile(event) {
             const file = event.currentTarget.files[0];
             const fileList = createThunk(file);
             console.log(file);
             // console.log(fileList);
             // 发送请求, uuid作为文件名
             // const uuid = crypto.randomUUID(); // Uncaught TypeError: crypto.randomUUID is not a function
             const uuid = file.name;
             const uploadList = fileList.map((item, index) => {
                 const formData = new FormData();
                 // formData includes chunk,name, filename
                 formData.append('chunk', item.tempFile);
                 formData.append('name', uuid + "_" + index);
                 formData.append('filename', uuid);
                 return axios.post('/upload_file_thunk', formData);
             });
             // after all files are uploaded
             Promise.all(uploadList).then((res) => {
                 console.log('upload success');
                 axios.post('/upload_thunk_end', {
                     filename: uuid,
                     extname: file.name.split('.').slice(-1)[0],
                 }).then((res) => {
                     console.log(res.data);
                 });
             });
         }    
     </script>
 </body>
 ​
 </html>

前端部分的代码分析如下:

  1. 异步的网络请求-上传文件选取的是axios作为工具,很符合promise风格,写起来也丝滑友好;
  2. 采用了输入框的失去焦点事件,失去焦点即上传文件。文件根据规定的大小0.5MB分块,用UUID+文件分片序号作为新的文件标识,异步的调用分片上传文件的接口
  3. 当所有的分片上传完毕之后,调用合并文件的接口,实现文件的合并。

是不是顿时感觉so easy了。我们再来看看后端的代码。

后端

文件名为:app.js

ini 复制代码
 const express = require('express');
 const multiparty = require('multiparty');
 const fs = require('fs');
 const path = require('path');
 ​
 const app = express();
 ​
 app.use(express.json());
 app.use('/', express.static('./public'));
 ​
 app.post('/upload_file_thunk', (req, res) => {
     const form = new multiparty.Form();
     form.parse(req, (err, fields, files) => {
         if (err) {
             res.json({
                 code: 0,
                 data: {},
             });
         } else {
             // save chunk files
             console.log(fields);
             fs.mkdirSync('./public/uploads/thunk/' + fields['filename'][0], {
                 recursive: true
             });
             // move
             console.log('files', files);
             fs.renameSync(files['chunk'][0].path, './public/uploads/thunk/' + fields['filename'][0] + '/' + fields['name'][0]);
             res.json({
                 code: 1,
                 data: '分片上传成功',
             });
         }
     });
 });
 ​
 /**
  * 文件合并
  * @param {*} sourceFiles 源文件
  * @param {*} targetFile  目标文件
  */
 function thunkStreamMerge(sourceFiles, targetFile) {
     const thunkFilesDir = sourceFiles;
     const list = fs.readdirSync(thunkFilesDir); // 读取目录中的文件
 ​
     const fileList = list
         .sort((a, b) => a.split('_')[1] * 1 - b.split('_')[1] * 1)
         .map((name) => ({
             name,
             filePath: path.resolve(thunkFilesDir, name),
         }));
     const fileWriteStream = fs.createWriteStream(targetFile);
     thunkStreamMergeProgress(fileList, fileWriteStream, sourceFiles);
 }
 ​
 /**
  * 合并每一个切片
  * @param {*} fileList        文件数据
  * @param {*} fileWriteStream 最终的写入结果
  * @param {*} sourceFiles     文件路径
  */
 function thunkStreamMergeProgress(fileList, fileWriteStream, sourceFiles) {
     if (!fileList.length) {
         // thunkStreamMergeProgress(fileList)
         fileWriteStream.end('完成了');
         // 删除临时目录
         // if (sourceFiles)
         //     fs.rmdirSync(sourceFiles, { recursive: true, force: true });
         return;
     }
     const data = fileList.shift(); // 取第一个数据
     const { filePath: chunkFilePath } = data;
     const currentReadStream = fs.createReadStream(chunkFilePath); // 读取文件
     // 把结果往最终的生成文件上进行拼接
     currentReadStream.pipe(fileWriteStream, { end: false });
     currentReadStream.on('end', () => {
         // console.log(chunkFilePath);
         // 拼接完之后进入下一次循环
         thunkStreamMergeProgress(fileList, fileWriteStream, sourceFiles);
     });
 }
 ​
 // 合并切片
 app.post('/upload_thunk_end', (req, res) => {
     const fileName = req.body.filename;
     const extName = req.body.extname;
     const targetFile = './public/uploads/' + fileName + '.' + extName;
     thunkStreamMerge('./public/uploads/thunk/' + fileName, targetFile);
     res.json({
         code: 1,
         data: targetFile,
     });
 });
 ​
 ​
 function getLocalIP() {
     const os = require('os');
     //获取本机ip
     var interfaces = os.networkInterfaces();
     for (var devName in interfaces) {
         var iface = interfaces[devName];
         for (var i = 0; i < iface.length; i++) {
             var alias = iface[i];
             if (alias.family === 'IPv4' && alias.address !== '127.0.0.1' && !alias.internal) {
                 return alias.address;
             }
         }
     }
 }
 ​
 ​
 port = 9000;
 ​
 const ip = getLocalIP();
 console.log('ip', ip);
 app.listen(port, () => console.log(`server running on ${getLocalIP()}:${port}......`));
 ​

这个代码就有点多了,115行,但是都是对应着后端的操作,并提供http服务。

shigen从分析每一个接口开始:

  1. /:主要是代理到public文件夹下,展示index.html,即我们上边的代码;
  2. upload_file_thunk:主要就是上传分片,并把分片从系统的某个空间转移到我们约定的目录之下
  3. upload_thunk_end: 主要就是合并我所有的分片了。它会调用我上边定义的方法,递归的拼接文件
  4. 最后的getLocalIP是我调用锡荣的工具类实现获得局域网下我的电脑IP地址,实现内网的相互访问和文件共享。岂不是很nice、smart!

那我启动起来就是一个命令即可:

复制代码
 node app.js

浏览器访问输出的IP+端口即可。

后记

最近突然有了一种偏见,这些设计完全都是没用的。因为仙子云服务这么成熟的了,对象存储这么成熟了,谁还成天研究这些东西。我们以腾讯云的对象存储COS为例子,我们看看腾讯云COS操作文档

作为云服务提供厂商,它已经帮我们想好了遇到的各种情况,甚至把相应的API设计好了。我们再去想破头实现,显得是那么的无意义。因为在云时代,我们更关注的是效率的提升和业务的增长。作为云服务厂商,它给我们提供了广大的平台,我们只需要拿来即用即可。

也希望每个企业,无论是国企、还是小公司、外包,拥抱云时代,别再花心思自研一些虚无的东西。业务的增长才是硬实力。


以上就是今天分享的全部内容了,觉得不错的话,记得点赞 在看 关注支持一下哈,您的鼓励和支持将是shigen坚持日更的动力。同时,shigen在多个平台都有文章的同步,也可以同步的浏览和订阅:

平台 账号 链接
CSDN shigen01 shigen的CSDN主页
知乎 gen-2019 shigen的知乎主页
掘金 shigen01 shigen的掘金主页
腾讯云开发者社区 shigen shigen的腾讯云开发者社区主页
微信公众平台 shigen 公众号名:shigen

shigen一起,每天不一样!

相关推荐
zopple27 分钟前
常见的 Spring 项目目录结构
java·后端·spring
cjy0001112 小时前
springboot的 nacos 配置获取不到导致启动失败及日志不输出问题
java·spring boot·后端
小江的记录本3 小时前
【事务】Spring Framework核心——事务管理:ACID特性、隔离级别、传播行为、@Transactional底层原理、失效场景
java·数据库·分布式·后端·sql·spring·面试
sheji34163 小时前
【开题答辩全过程】以 基于springboot的校园失物招领系统为例,包含答辩的问题和答案
java·spring boot·后端
程序员cxuan3 小时前
人麻了,谁把我 ssh 干没了
人工智能·后端·程序员
wuyikeer5 小时前
Spring Framework 中文官方文档
java·后端·spring
Victor3565 小时前
MongoDB(61)如何避免大文档带来的性能问题?
后端
Victor3565 小时前
MongoDB(62)如何避免锁定问题?
后端
wuyikeer6 小时前
Spring BOOT 启动参数
java·spring boot·后端
子木HAPPY阳VIP6 小时前
Ubuntu 22.04 VMware 设置固定IP配置
人工智能·后端·目标检测·机器学习·目标跟踪