使用webworker优化大文件生成hash的几种方式

最近做大文件断点续传需求时,需要将大文件生成hash,如果直接生成,速度会变得很慢。

优化方式:将大文件先切片,每一片都启动一个webWorker来计算hash,最后将所有的hash合并到一起再重新生成一个新的hash。

js 复制代码
    async function calculateMD5All(file: File) {
        const chunkSize = 100000000; // 100MB
        const chunks = Math.ceil(file.size / chunkSize);
        let currentChunk = 0;
        const promiseAll: Promise<unknown>[] = [];
        function loadNext() {
            const start = currentChunk * chunkSize;
            const end = Math.min(start + chunkSize, file.size);
            promiseAll.push(creatWebworker(file.slice(start, end)));
            currentChunk++;
            if (currentChunk < chunks) {
                loadNext();
            }
        }
        loadNext();
        const arr = await Promise.all(promiseAll);
        const hash = SparkMD5.hash(arr.join(','));
        return hash;
    }

方式1: 原生js引入

ini 复制代码
    // 引入worker.js,我是vite+vue3项目,worker.js放在项目的public目录下
    
    function creatWebworker(chunk: Blob) {
        // worker.js的地址可以用绝对地址也可以是相对地址,因为我直接放在public目录下,部署后就在项目根路径下
        const worker = new Worker('/worker.js'); 
        worker.onmessage = (e) => {
            const hash = e.data;
            resolve(hash);
        };
        worker.postMessage(chunk);
    }
    
    
    /**
    * worker.js
    */
    
    // spark-md5.min.js的地址我也是放在public项目下,所以这里可以写相对地址,注意:importScripts引入的js必须和当前项目的域名同源。
    importScripts('/spark-md5.min.js');

    self.onmessage = function (e) {
        const chunk = e.data;
        const spark = new SparkMD5.ArrayBuffer();
        const fileReader = new FileReader();
        fileReader.readAsArrayBuffer(chunk);
        fileReader.onload = function (e) {
            spark.append(e.target?.result);
            const hash = spark.end();
            self.postMessage(hash);
        };
    };

方式2:Blob URL引入

ini 复制代码
// 这种方式是使用使用Blob URL,其实只是将1中的worker.js变成了模板字符串。注意要注意一点,和1有点不同的是importScripts中的路径只能是通域名下的绝对路径
const workerCode = `
    importScripts('https://***/spark-md5.min.js');
    self.onmessage = function (e) {
        const chunk = e.data;
        const spark = new SparkMD5.ArrayBuffer();
        const fileReader = new FileReader();
        fileReader.readAsArrayBuffer(chunk);
        fileReader.onload = function (e) {
            spark.append(e.target?.result);
            const hash = spark.end();
            self.postMessage(hash);
        };
    };
`;
const blob = new Blob([workerCode], { type: 'application/javascript' });
const worker = new Worker(URL.createObjectURL(blob));
worker.onmessage = (e) => {
    const hash = e.data;
    resolve(hash);
};
worker.postMessage(chunk);

方式3:ESModule引入 (推荐这种)

ini 复制代码
// worker.ts文件直接写在主文件同级目录下,创建worker时,设置type:module
    function creatWebworker(chunk: Blob) {
        return new Promise((resolve, reject) => {
            const worker = new Worker(new URL('./worker.ts', import.meta.url), { type: 'module' });
            worker.onmessage = (e) => {
                const hash = e.data;
                resolve(hash);
            };
            worker.postMessage(chunk);
        });
    }
    
 // worker.ts

import SparkMD5 from 'spark-md5';
self.onmessage = function (e) {
    const chunk = e.data;
    const spark = new SparkMD5.ArrayBuffer();
    const fileReader = new FileReader();
    fileReader.readAsArrayBuffer(chunk);
    fileReader.onload = function (e) {
        spark.append(e.target?.result as ArrayBuffer);
        const hash = spark.end();
        self.postMessage(hash);
    };
};   
    
相关推荐
崔庆才丨静觅18 小时前
hCaptcha 验证码图像识别 API 对接教程
前端
passerby606119 小时前
完成前端时间处理的另一块版图
前端·github·web components
掘了19 小时前
「2025 年终总结」在所有失去的人中,我最怀念我自己
前端·后端·年终总结
崔庆才丨静觅19 小时前
实用免费的 Short URL 短链接 API 对接说明
前端
崔庆才丨静觅20 小时前
5分钟快速搭建 AI 平台并用它赚钱!
前端
崔庆才丨静觅20 小时前
比官方便宜一半以上!Midjourney API 申请及使用
前端
Moment20 小时前
富文本编辑器在 AI 时代为什么这么受欢迎
前端·javascript·后端
崔庆才丨静觅20 小时前
刷屏全网的“nano-banana”API接入指南!0.1元/张量产高清创意图,开发者必藏
前端
剪刀石头布啊20 小时前
jwt介绍
前端
爱敲代码的小鱼20 小时前
AJAX(异步交互的技术来实现从服务端中获取数据):
前端·javascript·ajax