MediaSource按需加载demo及分析

MediaSource demo

按需加载demo如下:

js 复制代码
<!DOCTYPE html>
<html>
  <head>
    <meta charset="utf-8"/>
  </head>
  <body>
    <video controls></video>
    <script>
      var video = document.querySelector('video');

      var assetURL = 'h265.mp4';
      // Need to be specific for Blink regarding codecs
      // ./mp4info frag_bunny.mp4 | grep Codec
      var mimeCodec = 'video/mp4; codecs="avc1.42E01E, mp4a.40.2"';
      var totalSegments = 5;
      var segmentLength = 0;
      var segmentDuration = 0;
      var bytesFetched = 0;
      var requestedSegments = [];

      for (var i = 0; i < totalSegments; ++i) requestedSegments[i] = false;

      var mediaSource = null;
      if ('MediaSource' in window && MediaSource.isTypeSupported(mimeCodec)) {
        mediaSource = new MediaSource;
        //console.log(mediaSource.readyState); // closed
        video.src = URL.createObjectURL(mediaSource);
        mediaSource.addEventListener('sourceopen', sourceOpen);
      } else {
        console.error('Unsupported MIME type or codec: ', mimeCodec);
      }

      var sourceBuffer = null;
      function sourceOpen (_) {
        sourceBuffer = mediaSource.addSourceBuffer(mimeCodec);
        getFileLength(assetURL, function (fileLength) {
          console.log((fileLength / 1024 / 1024).toFixed(2), 'MB');
          //totalLength = fileLength;
          segmentLength = Math.round(fileLength / totalSegments);
          //console.log(totalLength, segmentLength);
          fetchRange(assetURL, 0, segmentLength, appendSegment);
          requestedSegments[0] = true;
          video.addEventListener('timeupdate', checkBuffer);
          video.addEventListener('canplay', function () {
            segmentDuration = video.duration / totalSegments;
            video.play();
          });
          video.addEventListener('seeking', seek);
        });
      };

      function getFileLength (url, cb) {
        var xhr = new XMLHttpRequest;
        xhr.open('head', url);
        xhr.onload = function () {
            cb(xhr.getResponseHeader('content-length'));
          };
        xhr.send();
      };

      function fetchRange (url, start, end, cb) {
        var xhr = new XMLHttpRequest;
        xhr.open('get', url);
        xhr.responseType = 'arraybuffer';
        xhr.setRequestHeader('Range', 'bytes=' + start + '-' + end);
        xhr.onload = function () {
          console.log('fetched bytes: ', start, end);
          bytesFetched += end - start + 1;
          cb(xhr.response);
        };
        xhr.send();
      };

      function appendSegment (chunk) {
        sourceBuffer.appendBuffer(chunk);
      };

      function checkBuffer (_) {
        var currentSegment = getCurrentSegment();
        console.log(123, currentSegment, video.currentTime)
        if (currentSegment === totalSegments && haveAllSegments()) {
          console.log('last segment', mediaSource.readyState);
          mediaSource.endOfStream();
          video.removeEventListener('timeupdate', checkBuffer);
        } else if (shouldFetchNextSegment(currentSegment)) {
          requestedSegments[currentSegment] = true;
          console.log('time to fetch next chunk', video.currentTime);
          fetchRange(assetURL, bytesFetched, bytesFetched + segmentLength, appendSegment);
        }
        //console.log(video.currentTime, currentSegment, segmentDuration);
      };

      function seek (e) {
        console.log(e);
        if (mediaSource.readyState === 'open') {
          sourceBuffer.abort();
          console.log(mediaSource.readyState);
        } else {
          console.log('seek but not open?');
          console.log(mediaSource.readyState);
        }
      };

      function getCurrentSegment () {
        return ((video.currentTime / segmentDuration) | 0) + 1;
      };

      function haveAllSegments () {
        return requestedSegments.every(function (val) { return !!val; });
      };

      function shouldFetchNextSegment (currentSegment) {
        return video.currentTime > segmentDuration * currentSegment * 0.8 &&
          !requestedSegments[currentSegment];
      };
    </script>
  </body>
</html>

最终效果如下:

可以看到,视频一开始只加载了一段视频资源,在快要加载完后又继续加载了。

Q & A

MeidaSource是如何实现视频播放的?

1.MediaSource为媒体资源接口,通过createObjectURL生成播放url.

js 复制代码
video.src = URL.createObjectURL(mediaSource)
  1. SourceBuffer 接口表示通过 MediaSource 对象传递到 HTMLMediaElement 并播放的媒体分块。它可以由一个或者多个媒体片段组成。通过mediaSource.addSourceBuffer生成SourceBuffer.

  2. ArrayBuffer 对象用来表示通用的原始二进制数据缓冲区,类似于c语言的数组。就是通过不断的SourceBuffer.appendBuffer(ArrayBuffer)实现分段操作的。(注意ArrayBuffer初始化后长度不能改变).

如何在初始化的时候拿到视频长度?

通过head请求

该方法只返回资源的header信息,可以通过响应头的content-length字段获取资源长度。

如何实现分段请求?

使用请求头的Range字段,可以请求资源的特定字节区间的内容。

注意响应码206,表示表示请求已成功,并且主体包含所请求的数据区间,该数据区间是在请求的 Range 首部指定的。

然后通过HTMLMediaElement.timeupdate事件确定当前视频播放的时间,在当前缓存数据播放快完成时,加载下一段内容。

用户拖动进度条时如何处理

用户拖动进度条也能被HTMLMediaElement.timeupdate事件监听到,从而加载对应的代码片段,但是上面的demo会卡死。暂时不知原因(难道需要remove掉原有的片段?)

解码能力怎么样

参考codecs,应该也就只能支持浏览器原生支持的解码方式。

看了下没找到hevc,那h265格式的视频应该是不支持了。难道h265就只能用wasm硬解码?

和原生video比较如何?

1、 比原生video灵活,按需加载不仅可以节省视频播放流量压力,在直播中也经常用到(例如flvjs) 2、 解码能力感觉不相上下了,在测试过程中甚至出现了video原生可以播放但是MediaSource无法播放的情况(主要是视频的完整mimeType不知道确定)

相关推荐
午安~婉几秒前
ESLint
前端·eslint·检查
“抚琴”的人1 分钟前
C#中获取程序执行时间
服务器·前端·c#
掘金一周12 分钟前
Flex 布局下文字省略不生效?原因其实很简单| 掘金一周 10.16
前端
Stringzhua17 分钟前
Vue的Axios介绍【9】
前端·javascript·vue.js
摸着石头过河的石头33 分钟前
JavaScript 垃圾收集:内存管理的艺术
前端·javascript
前端小崽子34 分钟前
🔥 踩坑实录:Fabric 在 Intel Iris Xe 显卡上 CPU 飙升 100%
前端
东华帝君38 分钟前
React Suspense组件
前端
siaikin39 分钟前
基于 Astro Starlight 的多框架文档
前端·vue.js·markdown
红毛丹40 分钟前
在 Playwright 中执行 JavaScript
前端·自动化运维
一树山茶40 分钟前
uniapp云函数使用——内容审核
前端·javascript