ffmpeg封装和解封装介绍-(7)截断视频关键代码解析

计算相关pts并移动到第10s处的pts:

cpp 复制代码
    
    /// 截取10 ~ 20 秒之间的音频视频 取多不取少
    // 假定 9 11秒有关键帧 我们取第9秒
    double begin_sec = 10.0;    //截取开始时间
    double end_sec = 20.0;      //截取结束时间
    long long begin_pts = 0;
    long long begin_audio_pts = 0;  //音频的开始时间
    long long end_pts = 0;
    //换算成pts 换算成输入ic的pts,以视频流为准
    if (vs && vs->time_base.num > 0)
    {
        //sec /timebase = pts
        // pts =  sec/(num/den) = sec* (den/num)  
        double t = (double)vs->time_base.den / (double)vs->time_base.num;//den分母/num分子
        begin_pts = begin_sec * t;
        end_pts = end_sec * t;
    }
    if (as && as->time_base.num > 0)
        begin_audio_pts = begin_sec * ((double)as->time_base.den / (double)as->time_base.num);

    //seek输入媒体 移动到第十秒的关键帧位置
    if (vs)
        re = av_seek_frame(ic, vs->index, begin_pts,
            AVSEEK_FLAG_FRAME | AVSEEK_FLAG_BACKWARD); //向后关键帧
    CERR(re);

这段代码的目的是从一个媒体文件中截取10秒到20秒之间的音频和视频数据。具体来说,它将找到第10秒和第20秒的PTS(Presentation Timestamp)值,然后将媒体文件的读位置移动到第10秒附近的关键帧位置,以便从该位置开始读取数据。

首先,定义了一些变量来存储开始和结束的时间(秒)以及对应的PTS值。begin_ptsend_pts 用于视频的PTS值,而 begin_audio_pts 用于音频的开始PTS值。

time_basenum(分子)大于0。time_base 是FFmpeg中用来表示时间基准的结构体。代码将开始和结束时间从秒转换为PTS值。转换公式为:PTS = 秒 * (time_base.den / time_base.num)

再通过seekframe函数将输入媒体文件(通过 ic 表示)的读取位置移动到第10秒附近的关键帧位置。

把10s处的帧通过计算偏移移动到输出文件的开头:

cpp 复制代码
    AVPacket pkt;
    for (;;)
    {
        re = av_read_frame(ic, &pkt);
        if (re != 0)
        {
            PrintErr(re);
            break;
        }
        AVStream* in_stream = ic->streams[pkt.stream_index];
        AVStream* out_stream = nullptr;
        long long offset_pts = 0; //偏移pts,用于截断的开头pts运算

        if (vs && pkt.stream_index == vs->index)
        {
            cout << "视频:";

            //超过第20秒退出,只存10~20秒
            if (pkt.pts > end_pts)
            {
                av_packet_unref(&pkt);
                break;
            }
            out_stream = ec->streams[0];
            offset_pts = begin_pts;
        }
        else if (as && pkt.stream_index == as->index)
        {
            cout << "音频:";
            out_stream = ec->streams[1];
            offset_pts = begin_audio_pts;
        }
        cout << pkt.pts << " : " << pkt.dts << " :" << pkt.size << endl;

        //重新计算pts dts duration
        //`a * bq(输入basetime) / cq(输出basetime)`
        if (out_stream)
        {
            pkt.pts = av_rescale_q_rnd(pkt.pts - offset_pts, in_stream->time_base,
                out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)
            );
            pkt.dts = av_rescale_q_rnd(pkt.dts - offset_pts, in_stream->time_base,
                out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)
            );
            pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
        }
        pkt.pos = -1;

无限循环,循环处理每一帧。

这段代码的主要功能是在截取指定时间段(10秒到20秒)的视频和音频后,将其重新编码或写入到输出文件中。它读取输入文件的每一帧数据,根据PTS值判断是否在截取范围内,并调整PTS、DTS和duration值以适应输出文件的时间基准。

使用 av_read_frame 从输入文件中读取每一帧数据,并存储在 pkt 中。如果读取失败(re != 0),打印错误信息并退出循环。

根据 pkt.stream_index 获取输入流指针 in_stream,初始化输出流指针 out_stream 和偏移PTS offset_pts

如果当前帧的PTS值超过20秒(pkt.pts > end_pts),释放 pkt 并退出循环。

设置输出流为第一个输出流(ec->streams[0]),并设置偏移PTS为 begin_pts

设置输出流为第二个输出流(ec->streams[1]),并设置偏移PTS为 begin_audio_pts

再对outstream输出流进行重新计算pts dts duration 等值。

重新计算中减去offset_pts的原因:

当我们截取视频时,我们选择了一个开始截取的时间点,比如从视频的第 10 秒开始截取。而在视频文件中,每一帧都有一个时间戳(PTS)来表示它在视频中的时间位置。

现在,假设视频的第 10 秒对应的时间戳(PTS)是 5000。如果我们不减去偏移值,那么视频的第 10 秒就会被映射到输出文件的第 10 秒,这是正确的。但是,我们希望视频的第 10 秒被映射到输出文件的第 0 秒,因为我们是从视频的第 10 秒开始截取的。

因此,我们需要减去一个偏移值,这个偏移值就是视频的第 10 秒对应的时间戳。这样,视频的第 10 秒就会被映射到输出文件的第 0 秒,而不是第 10 秒。这就是为什么要减去偏移值的原因。

相关推荐
量子-Alex33 分钟前
【多模态聚类】用于无标记视频自监督学习的多模态聚类网络
学习·音视频·聚类
mo47764 小时前
Webrtc音频模块(四) 音频采集
音视频·webrtc
icy、泡芙4 小时前
T527-----音频调试
linux·驱动开发·音视频
易我数据恢复大师4 小时前
怎么提取音频保存到本地?电脑音频提取方法
音视频·软件·音频提取
野蛮的大西瓜4 小时前
开源呼叫中心中,如何将ASR与IVR菜单结合,实现动态的IVR交互
人工智能·机器人·自动化·音视频·信息与通信
嘟嘟实验室7 小时前
微信小程序xr-frame透明视频实现
微信小程序·ffmpeg·音视频·xr
红米饭配南瓜汤8 小时前
WebRTC服务质量(09)- Pacer机制(01) 流程概述
网络·音视频·webrtc
是十一月末11 小时前
Python进阶之opencv图片和视频基本读取关闭
python·opencv·音视频·cv2
泰勒朗斯11 小时前
如何编译Opencv +ffmpeg linux 明明安装了ffmpeg但是opencv就是找不到
linux·opencv·ffmpeg
gomogomono13 小时前
HDR视频技术之十一:HEVCH.265 的 HDR 编码方案
音视频·h.265·hdr·yuv