使用webworker优化大文件生成hash的几种方式

最近做大文件断点续传需求时,需要将大文件生成hash,如果直接生成,速度会变得很慢。

优化方式:将大文件先切片,每一片都启动一个webWorker来计算hash,最后将所有的hash合并到一起再重新生成一个新的hash。

js 复制代码
    async function calculateMD5All(file: File) {
        const chunkSize = 100000000; // 100MB
        const chunks = Math.ceil(file.size / chunkSize);
        let currentChunk = 0;
        const promiseAll: Promise<unknown>[] = [];
        function loadNext() {
            const start = currentChunk * chunkSize;
            const end = Math.min(start + chunkSize, file.size);
            promiseAll.push(creatWebworker(file.slice(start, end)));
            currentChunk++;
            if (currentChunk < chunks) {
                loadNext();
            }
        }
        loadNext();
        const arr = await Promise.all(promiseAll);
        const hash = SparkMD5.hash(arr.join(','));
        return hash;
    }

方式1: 原生js引入

ini 复制代码
    // 引入worker.js,我是vite+vue3项目,worker.js放在项目的public目录下
    
    function creatWebworker(chunk: Blob) {
        // worker.js的地址可以用绝对地址也可以是相对地址,因为我直接放在public目录下,部署后就在项目根路径下
        const worker = new Worker('/worker.js'); 
        worker.onmessage = (e) => {
            const hash = e.data;
            resolve(hash);
        };
        worker.postMessage(chunk);
    }
    
    
    /**
    * worker.js
    */
    
    // spark-md5.min.js的地址我也是放在public项目下,所以这里可以写相对地址,注意:importScripts引入的js必须和当前项目的域名同源。
    importScripts('/spark-md5.min.js');

    self.onmessage = function (e) {
        const chunk = e.data;
        const spark = new SparkMD5.ArrayBuffer();
        const fileReader = new FileReader();
        fileReader.readAsArrayBuffer(chunk);
        fileReader.onload = function (e) {
            spark.append(e.target?.result);
            const hash = spark.end();
            self.postMessage(hash);
        };
    };

方式2:Blob URL引入

ini 复制代码
// 这种方式是使用使用Blob URL,其实只是将1中的worker.js变成了模板字符串。注意要注意一点,和1有点不同的是importScripts中的路径只能是通域名下的绝对路径
const workerCode = `
    importScripts('https://***/spark-md5.min.js');
    self.onmessage = function (e) {
        const chunk = e.data;
        const spark = new SparkMD5.ArrayBuffer();
        const fileReader = new FileReader();
        fileReader.readAsArrayBuffer(chunk);
        fileReader.onload = function (e) {
            spark.append(e.target?.result);
            const hash = spark.end();
            self.postMessage(hash);
        };
    };
`;
const blob = new Blob([workerCode], { type: 'application/javascript' });
const worker = new Worker(URL.createObjectURL(blob));
worker.onmessage = (e) => {
    const hash = e.data;
    resolve(hash);
};
worker.postMessage(chunk);

方式3:ESModule引入 (推荐这种)

ini 复制代码
// worker.ts文件直接写在主文件同级目录下,创建worker时,设置type:module
    function creatWebworker(chunk: Blob) {
        return new Promise((resolve, reject) => {
            const worker = new Worker(new URL('./worker.ts', import.meta.url), { type: 'module' });
            worker.onmessage = (e) => {
                const hash = e.data;
                resolve(hash);
            };
            worker.postMessage(chunk);
        });
    }
    
 // worker.ts

import SparkMD5 from 'spark-md5';
self.onmessage = function (e) {
    const chunk = e.data;
    const spark = new SparkMD5.ArrayBuffer();
    const fileReader = new FileReader();
    fileReader.readAsArrayBuffer(chunk);
    fileReader.onload = function (e) {
        spark.append(e.target?.result as ArrayBuffer);
        const hash = spark.end();
        self.postMessage(hash);
    };
};   
    
相关推荐
程序员爱钓鱼13 分钟前
Go操作Excel实战详解:github.com/xuri/excelize/v2
前端·后端·go
子兮曰8 小时前
async/await高级模式:async迭代器、错误边界与并发控制
前端·javascript·github
恋猫de小郭9 小时前
2026 Flutter VS React Native ,同时在 AI 时代 VS Native 开发,你没见过的版本
android·前端·flutter
GIS之路11 小时前
ArcGIS Pro 中的 Notebooks 入门
前端
IT_陈寒12 小时前
React状态管理终极对决:Redux vs Context API谁更胜一筹?
前端·人工智能·后端
Kagol13 小时前
TinyVue 支持 Skills 啦!现在你可以让 AI 使用 TinyVue 组件搭建项目
前端·agent·ai编程
柳杉13 小时前
从零打造 AI 全球趋势监测大屏
前端·javascript·aigc
simple_lau13 小时前
Cursor配置MasterGo MCP:一键读取设计稿生成高还原度前端代码
前端·javascript·vue.js
睡不着先生13 小时前
如何设计一个真正可扩展的表单生成器?
前端·javascript·vue.js
天蓝色的鱼鱼13 小时前
模块化与组件化:90%的前端开发者都没搞懂的本质区别
前端·架构·代码规范