Azure Blob Storage 分片上传方式(预签名 url)

azure 云存储方式有三种传输方式:block blobs, append blobs, and page blobs。这里我们只涉及到上传,所以 Block blob 方式足够。

用户上传的 file

首先拿到用户上传的文件,需要符合 file:File 类型,一般是 <input type="file"> 上传拿到的数据,这里的 File 支持 slice 方法可以切片

预签名接口 preSignedUploadUrl

前后端分离的项目,一般后端会存储上传的认证信息密钥之类,每次前端上传,请求后端接口,后端生成一个临时的预签名(pre-signed)url,一般几分钟之后会失效。前端使用这个预签名 url (后面提到的 preSignedUploadUrl) 进行上传操作。

整个文件一次性上传 uploadComplete

如果文件的size比较小,比如 file.size < 4 * 1024 * 1024 文件小于 4MB,那么可以选择一次上传全部。

ts 复制代码
async function uploadComplete(preSignedUploadUrl:string,file:File) {
  return axios.put(preSignedUploadUrl, file, {
    headers: {
      "x-ms-blob-type": "BlockBlob", // block blob 方式上传
    },
  });
}

分片上传 uploadChunks

分片操作在 azure 这里需要分两步:

  1. 一段一段上传,可以顺序,或乱序,但是浏览器一般会限制并发数(比如 chrome 限制为 6 个),按需考虑。
  2. 上传需要合并的分片信息 xml 结构的表,里面的 blockId 信息需要按照上传顺序依次排列,告诉 azure 需要合并这个请求

注意:分片上传和提交的合并分片表单两个接口,是同一个预签名 url。

这里的 demo 中使用了 await-to-js ,将整个上传流程更直观,同步化

ts 复制代码
import to from "await-to-js";
import { v4 as uuidv4 } from "uuid";

async function uploadChunks(preSignedUploadUrl:string, file:File) {
  const fileSize = file.size;
  const CHUNK_SIZE = 4 * 1024 * 1024; // 4 M
  const totalChunks = Math.ceil(fileSize / CHUNK_SIZE);
  const blockIdList = [];

  // 1. 传递每一个分片
  for (let chunkIndex = 0; chunkIndex < totalChunks; chunkIndex++) {
    const start = chunkIndex * CHUNK_SIZE;
    const end = Math.min(start + CHUNK_SIZE, fileSize);
    const chunk = file.slice(start, end);

    // 生成唯一的 blockId, 所有的 blockId 长度必须一致,否则,后传的就 error
    const blockId = btoa(uuidv4());
    blockIdList.push(blockId);

    // 注意这里 url 需要拼参数  &comp=block&blockid=${blockId}
    const url = `${preSignedUploadUrl}&comp=block&blockid=${blockId}`;

    const [err, values] = await to(
      axios.put(url, file, {
        headers: {
          "x-ms-blob-type": "BlockBlob",
          "Content-Type": file.type,
          "Content-Range": `bytes=${start}-${end}/${fileSize}`,
        },
      }),
    );
    if (err) {
      // err todo
    }
  }

  // 2. 提交合并分片的请求
  const xmlBodyString = `<?xml version="1.0" encoding="UTF-8"?><BlockList>${blockIds
    .map(blockId => `<Latest>${blockId}</Latest>`)
    .join("")}</BlockList>`;

// 注意这里 url 需要拼参数 &comp=blocklist 
  const [err, res] = await to(
    axios.put(`${preSignedUploadUrl}&comp=blocklist`, xmlBodyString, {
      headers: {
        "Content-Type": "text/plain",
      },
    }),
  );
  if (err) {
    // err todo
  }

  // end
}

上传进度 onUploadProgress

对于整个一次性的上传,使用 axios 的可以使用 onUploadProgress 进行进度同步更新。

js 复制代码
axios.put(upload_url, file, {
    headers: { "x-ms-blob-type": "BlockBlob", ...headers },
    onUploadProgress(progressEvent) {
    const { loaded, total } = progressEvent;
    if (!total || !loaded) return;

    const percent = Math.floor((loaded * 100) / total);

    onUpdate(percent); // 0-100
    },
});

对于分片的文件,可以用分片的进度和各个分片上传的进度,两者结合来做判断,大家可以尝试下,这里不过多着墨。

参考

Uploading Large Files in Windows Azure Blob Storage Using Shared Access Signature, HTML, and JavaScript

How to upload large files in chunks using rest API, azure blob list storage from salesforce using LWC.

相关推荐
Beginner x_u几秒前
前端八股整理(工程化 02)|CommonJS/ESM、Webpack Loader/Plugin 与Vite 对比
前端·webpack·node.js·plugin·loader
openKaka_18 分钟前
createRoot 到底创建了什么:FiberRootNode 和 HostRootFiber 的初始化过程
前端·javascript·react.js
习明然1 小时前
UniApp开发体验感受总结
前端·uni-app
刀法如飞2 小时前
Claude Code Skills 推荐:2026年最值得安装的10个AI技能
前端·后端·ai编程
阿豪只会阿巴2 小时前
【没事学点啥】TurboBlog轻量级个人博客项目——项目介绍
javascript·python·django·html
Lee川2 小时前
面试手写 KeepAlive:React 组件缓存的实现原理
前端·react.js·面试
墨染天姬2 小时前
【AI】cursor提示词小技巧
前端·数据库·人工智能
烛阴2 小时前
TEngine 入门系列(一):TEngine 是什么 & 为什么选它
前端·unity3d
转转技术团队3 小时前
WebNN:让 AI 推理在浏览器中“零距离”运行
前端
刀法如飞3 小时前
TypeScript 数组去重的 20 种实现方式,哪一种你还不知道?
前端·javascript·算法