计算相关pts并移动到第10s处的pts:
cpp
/// 截取10 ~ 20 秒之间的音频视频 取多不取少
// 假定 9 11秒有关键帧 我们取第9秒
double begin_sec = 10.0; //截取开始时间
double end_sec = 20.0; //截取结束时间
long long begin_pts = 0;
long long begin_audio_pts = 0; //音频的开始时间
long long end_pts = 0;
//换算成pts 换算成输入ic的pts,以视频流为准
if (vs && vs->time_base.num > 0)
{
//sec /timebase = pts
// pts = sec/(num/den) = sec* (den/num)
double t = (double)vs->time_base.den / (double)vs->time_base.num;//den分母/num分子
begin_pts = begin_sec * t;
end_pts = end_sec * t;
}
if (as && as->time_base.num > 0)
begin_audio_pts = begin_sec * ((double)as->time_base.den / (double)as->time_base.num);
//seek输入媒体 移动到第十秒的关键帧位置
if (vs)
re = av_seek_frame(ic, vs->index, begin_pts,
AVSEEK_FLAG_FRAME | AVSEEK_FLAG_BACKWARD); //向后关键帧
CERR(re);
这段代码的目的是从一个媒体文件中截取10秒到20秒之间的音频和视频数据。具体来说,它将找到第10秒和第20秒的PTS(Presentation Timestamp)值,然后将媒体文件的读位置移动到第10秒附近的关键帧位置,以便从该位置开始读取数据。
首先,定义了一些变量来存储开始和结束的时间(秒)以及对应的PTS值。
begin_pts
和end_pts
用于视频的PTS值,而begin_audio_pts
用于音频的开始PTS值。其
time_base
的num
(分子)大于0。time_base
是FFmpeg中用来表示时间基准的结构体。代码将开始和结束时间从秒转换为PTS值。转换公式为:PTS = 秒 * (time_base.den / time_base.num)
再通过seekframe函数
将输入媒体文件(通过ic
表示)的读取位置移动到第10秒附近的关键帧位置。
把10s处的帧通过计算偏移移动到输出文件的开头:
cpp
AVPacket pkt;
for (;;)
{
re = av_read_frame(ic, &pkt);
if (re != 0)
{
PrintErr(re);
break;
}
AVStream* in_stream = ic->streams[pkt.stream_index];
AVStream* out_stream = nullptr;
long long offset_pts = 0; //偏移pts,用于截断的开头pts运算
if (vs && pkt.stream_index == vs->index)
{
cout << "视频:";
//超过第20秒退出,只存10~20秒
if (pkt.pts > end_pts)
{
av_packet_unref(&pkt);
break;
}
out_stream = ec->streams[0];
offset_pts = begin_pts;
}
else if (as && pkt.stream_index == as->index)
{
cout << "音频:";
out_stream = ec->streams[1];
offset_pts = begin_audio_pts;
}
cout << pkt.pts << " : " << pkt.dts << " :" << pkt.size << endl;
//重新计算pts dts duration
//`a * bq(输入basetime) / cq(输出basetime)`
if (out_stream)
{
pkt.pts = av_rescale_q_rnd(pkt.pts - offset_pts, in_stream->time_base,
out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)
);
pkt.dts = av_rescale_q_rnd(pkt.dts - offset_pts, in_stream->time_base,
out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX)
);
pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
}
pkt.pos = -1;
无限循环,循环处理每一帧。
这段代码的主要功能是在截取指定时间段(10秒到20秒)的视频和音频后,将其重新编码或写入到输出文件中。它读取输入文件的每一帧数据,根据PTS值判断是否在截取范围内,并调整PTS、DTS和duration值以适应输出文件的时间基准。
使用 av_read_frame
从输入文件中读取每一帧数据,并存储在 pkt
中。如果读取失败(re != 0
),打印错误信息并退出循环。
根据 pkt.stream_index
获取输入流指针 in_stream
,初始化输出流指针 out_stream
和偏移PTS offset_pts
如果当前帧的PTS值超过20秒(pkt.pts > end_pts
),释放 pkt
并退出循环。
设置输出流为第一个输出流(ec->streams[0]
),并设置偏移PTS为 begin_pts
。
设置输出流为第二个输出流(ec->streams[1]
),并设置偏移PTS为 begin_audio_pts
。
再对outstream输出流进行重新计算pts dts duration 等值。
重新计算中减去offset_pts的原因:
当我们截取视频时,我们选择了一个开始截取的时间点,比如从视频的第 10 秒开始截取。而在视频文件中,每一帧都有一个时间戳(PTS)来表示它在视频中的时间位置。
现在,假设视频的第 10 秒对应的时间戳(PTS)是 5000。如果我们不减去偏移值,那么视频的第 10 秒就会被映射到输出文件的第 10 秒,这是正确的。但是,我们希望视频的第 10 秒被映射到输出文件的第 0 秒,因为我们是从视频的第 10 秒开始截取的。
因此,我们需要减去一个偏移值,这个偏移值就是视频的第 10 秒对应的时间戳。这样,视频的第 10 秒就会被映射到输出文件的第 0 秒,而不是第 10 秒。这就是为什么要减去偏移值的原因。