ffmpeg 解码文件时的时间戳问题

实时流和普通文件

1 实时流

实时流编码时,我们一般不进行b帧编码,但是文件存储时为了减小大小,会增加b帧,实时流只带了I,P帧,那就会好很多
2 普通文件

很多文件带了b帧,所以要使用解码时间去同步,如果使用pts,很多人一定会被其时间搞混。

我们可以正确使用AVFrame 的pts 和pkt-dts 去保存正常的时间,如果不给其正确赋值,那么值就如下所示,是novalue。

那么获取pts和dts 去赋值给avframe就行了,注意时间基。如果不进行时间延时,那么文件会被cpu 快速读完,这就看cpu有多强了,当然,为了仅仅是测试,当然可以直接使用帧率,间隔时间延时就行,如果做播放器就不能这样了,我们要严格掐时间,按照秒表去对。

c 复制代码
int main()
{
	c_test test;
	std::thread t([&test]() {
		// 在这里编写你的匿名函数的代码
		std::cout << "Hello from the new thread!" << std::endl;
		test.func_init("G:/record/A1_.mp4");
		test.Start();
	});
	while (1)
	{
		AVFrame* f = test.GetData();
		if (f != NULL)
		{

			int h = f->height;
			int w = f->width;
			
			cv::Mat mat(h, w, CV_8UC3,f->data[0]);
			cv::Mat matBGR;
			cv::cvtColor(mat, matBGR,cv::COLOR_RGB2BGR/* cv::COLOR_BGR2YUV_I420*/);
			cv::imshow("show", matBGR);
			std::cout << "the pts is :" << f->pts<<std::endl;
			av_freep(&f->data[0]);
			av_frame_free(&f);
		}
		if (cv::waitKey(30) == 'q')
			break;
	}
	test.Stop();
	std::cout << "end of this thread" << std::endl;
	//test.func_seek(10);
	t.join();
}

以上代码的RGB到BGR的转化其实没有必要使用, 实际播放的时候,我们直接渲染RGB24,RGBA,甚至YUV,NV12 都可以,这里为了方便,把这个转化成了BGR24,不过是想让opencv 直接渲染,由于opencv 中 bgr的rgb的颜色交换,播放时看起来不舒服,所以转化一下更符合实际,不转化也没什么。如果不想转化,甚至直接使用nv12,yuv420,rgb24,为了方便演示可以使用sdl去播放,如果对opengl熟悉,自己就写一段代码去播放。文章可以到我其他的文章里面找,我应该都写过。

正确的播放延时

获取时间基

c 复制代码
	AVRational time_base = input_ctx->streams[video_stream]->time_base;
	AVRational time_base_q = { 1,AV_TIME_BASE }; // AV_TIME_BASE_Q;

要正确播放,一定要使用dts,也就是解码时间,而非pts,对于带b帧的视频来说一定是如此。

c 复制代码
if (v_isrealtime == false && video_stream == packet.stream_index)
{
	//这里需要更加精确的计算
	if (v_starttime == -1)
		v_starttime = av_gettime();
	//av_usleep(30 * 1000);
	int64_t pts_time = av_rescale_q(packet.dts, time_base, time_base_q);
	if (v_startptstime == -1)
		v_startptstime = pts_time;
	int64_t N = av_gettime() - v_starttime;
	int64_t S = pts_time - v_startptstime;
	if (S > N)
	{
		av_usleep(S-N);
		std::cout << "sleep:" << S - N << std::endl;
	}
}

播放测试的时候可以使用pc上有秒表卡住时间,没有就使用手机也可以,两个相差一直是同样的描述,持续时间长一点

正确的同步

同步时一定要使用系统时间和播放时间相对应,如果文件有跳帧拖拉进度条和快放的需求,更加要注意,其实以上代码已经包含了跳帧和快放的基本需求,研究一下就知道了。

相关推荐
REDcker4 小时前
FFmpeg完整文档
linux·服务器·c++·ffmpeg·音视频·c·后端开发
硬汉嵌入式6 小时前
QEMU & FFmpeg作者Fabrice Bellard推出MicroQuickJS,一款面向嵌入式系统JavaScript引擎,仅需10K RAM
javascript·ffmpeg·microquickjs
Knight_AL1 天前
如何用 FFmpeg 处理 PCM 音频 & 判断 PCM 文件到底是什么格式
ffmpeg·音视频·pcm
binderIPC2 天前
macos环境下FFmpeg打包成.so文件
macos·ffmpeg·音视频
binderIPC2 天前
macos的FFmpeg环境搭建
macos·ffmpeg·音视频
TEC_INO3 天前
Linux_19:RV1126的OSD模块和SDL_TTF结合输出H264文件
linux·运维·ffmpeg
小鹿软件办公3 天前
一行命令搞定!用 FFmpeg 按指定码率压缩视频
ffmpeg·音视频
青芒.4 天前
10个20GB大视频如何高效处理?M3 Mac + FFmpeg 最佳实践全解析
macos·ffmpeg·音视频
❀͜͡傀儡师5 天前
SpringBoot + FFmpeg + ZLMediaKit 实现本地视频推流
spring boot·ffmpeg·音视频
大黄说说5 天前
基于 fluent-ffmpeg 实现 HLS 视频切片:从完整视频到 .ts + .m3u8 流媒体传输
ffmpeg·音视频