在ffmpeg中,如何把h264转换为rgb格式

在ffmpeg中,网络视频流h264为什么默认的转为YUV而不是其他格式 文章中介绍了,h264解码的时候是直接解码为yuv的,如果在使用的过程中 需要用到rgb的格式,我们该如何来转换这种格式呢?

在上面的文章中,我们已经知道了ffmpeg中,使用avcodec_send_packetavcodec_receive_frame 对h264进行了解码,这时候编码已经 变为yuv了。

那问题就变为了,如何把yuv格式转变为rgb。对于yuv和rgb来说,这两种只是格式的不同而已,映射空间的不同,也就是说,通过映射,我们可以把yuv转换为rgb。

ffmpeg中,通过空间的转换,使用到的函数是:sws_getContextsws_scale

代码如下:

复制代码
AVFrame* decode_to_rgb(AVFrame* frame) {
	// 创建一个swsContext,用于YUV到RGB的转换
	SwsContext* swsContext = sws_getContext(frame->width, frame->height, (AVPixelFormat)frame->format,
		frame->width, frame->height, AV_PIX_FMT_RGB24,
		SWS_BILINEAR, NULL, NULL, NULL);
	if (!swsContext) {
		// 错误处理...
	}

	// 创建一个新的AVFrame,用于存储RGB数据
	AVFrame* rgbFrame = av_frame_alloc();
	rgbFrame->format = AV_PIX_FMT_RGB24;
	rgbFrame->width = frame->width;
	rgbFrame->height = frame->height;
	av_frame_get_buffer(rgbFrame, 0);

	// 将YUV数据转换为RGB
	sws_scale(swsContext, frame->data, frame->linesize, 0, frame->height,
		rgbFrame->data, rgbFrame->linesize);

	// 释放swsContext
	sws_freeContext(swsContext);

	return rgbFrame;
}

通过上面的程序,我们可以知道,yuv和rgb的数据,是存在frame->data中的,每个frame代表了一帧,也就是代表了一张图片,在上一篇文章中,如果你还记得的话,那么h264的数据是放在AVPacket中的。

既然每一帧是一张图片,我们能不能也把AVFrame 编码为jpg的图片,这是可以的。

复制代码
bool yuv_to_jpeg(void* framev) {

	AVFrame* frame = (AVFrame*)framev;
	const AVCodec* jpegCodec = avcodec_find_encoder(AV_CODEC_ID_MJPEG);
	if (!jpegCodec) {
		return false;
	}
	AVCodecContext* jpegContext = avcodec_alloc_context3(jpegCodec);
	if (!jpegContext) {
		return false;
	}

	jpegContext->pix_fmt = AV_PIX_FMT_YUVJ420P;
	jpegContext->height = frame->height;
	jpegContext->width = frame->width;
	jpegContext->time_base.den = 20;
	jpegContext->time_base.num = 1;
	if (frame->height <= 0)return false;

	int ret = avcodec_open2(jpegContext, jpegCodec, NULL);
	if (ret < 0) {
		//char* ret =(char*) av_err2str(ret);
		return false;
	}

	AVPacket* packet;
	packet = av_packet_alloc();

	// 发送帧到编码器
	if (avcodec_send_frame(jpegContext, frame) < 0) {
		// 错误处理...
	}

	if (avcodec_receive_packet(jpegContext, packet) == 0) {
		// 如果编码器输出了JPEG数据,将其保存到文件
		FILE* JPEGFile;
		char JPEGFName[256];
		static int i = 0;
		sprintf(JPEGFName, "jpg//dvr-%06d.jpg", ++i);
		JPEGFile = fopen(JPEGFName, "wb");
		fwrite(packet->data, 1, packet->size, JPEGFile);
		fclose(JPEGFile);
	}


	av_packet_unref(packet);
	avcodec_close(jpegContext);
	return true;
}

因为jpg是一种编码格式,所有会用到avcodec_send_packetavcodec_receive_frame ,编码的内容存在packet中,ffmpeg都帮我们把jpg的格式填充在packet中了,我们只需要把数据直接保存在文件就可以得到图片了。

所有的代码都已在git上

相关推荐
aqi002 小时前
FFmpeg开发笔记(八十二)使用国产直播服务器smart_rtmpd执行推流操作
ffmpeg·音视频·直播·流媒体
西瓜er16 小时前
JAVA:Spring Boot 集成 FFmpeg 实现多媒体处理
java·spring boot·ffmpeg
QMCY_jason1 天前
ubuntu 24.04 FFmpeg编译 带Nvidia 加速记录
linux·ubuntu·ffmpeg
eqwaak01 天前
动态图表导出与视频生成:精通Matplotlib Animation与FFmpeg
开发语言·python·ffmpeg·音视频·matplotlib
执尺量北斗1 天前
LinkMate 智能会议室系统:基于 Qt / QML / WebRTC / FFmpeg / Whisper / OpenGL 的实时音视频会议平台
qt·ffmpeg·webrtc
月起星九2 天前
为什么ffmpeg进行视频合成有时长误差
ffmpeg·音视频
长沙红胖子Qt4 天前
FFmpeg开发笔记(十二):ffmpeg音频处理、采集麦克风音频录音为WAV
ffmpeg·pcm·wav·录音·麦克风
aqi004 天前
FFmpeg开发笔记(八十一)FFmpeg代码对RTSP和RTMP的推流区别
ffmpeg·音视频·直播·流媒体
奔跑吧邓邓子5 天前
【C++实战(71)】解锁C++音视频开发:FFmpeg从入门到实战
c++·ffmpeg·实战·音视频
骄傲的心别枯萎5 天前
项目1:FFMPEG推流器讲解(一):FFMPEG重要结构体讲解
linux·ffmpeg·音视频·视频编解码·rv1126