音视频开发—FFmpeg播放YUV文件,YUV转换为JPEG操作

文章目录

1.使用命令行播放YUV数据

使用 FFmpeg 的命令行工具 ffplay 可以很方便地播放 YUV 文件。但是不同于MP4或MKV格式文件,YUV 存储的原始的信息,需要指定分辨率参数和数据格式。

以下是一个典型的命令及其参数解析:

ffplay -pix_fmt nv12 -s 1920*1080 input_test.yuv 

1.1命令解析

  • ffplay:这是 FFmpeg 的播放工具,用于播放音视频文件和流。
  • -f rawvideo:指定输入文件格式为原始视频数据(未压缩)。
  • -pixel_format yuv420p:指定像素格式为 YUV 4:2:0 平面格式(planar)。YUV420p 是一种常见的 YUV 格式,其中 Y、U、V 分量分别存储在独立的平面上。
  • -video_size 1920x1080:指定视频的宽度和高度。这个参数对于原始视频数据非常重要,因为它没有头文件来存储这些信息。
  • input.yuv:这是输入文件的名称。

1.2参数说明

  1. -f rawvideo
    • 表示输入文件是原始视频数据,FFmpeg 不会自动检测文件格式,需要显式指定。
  2. -pixel_format yuv420p
    • yuv420p 表示 YUV 4:2:0 平面格式,Y、U、V 分量分别存储在独立的平面上。
    • 常见的像素格式还有 nv12(UV 分量交织存储)等。
  3. -video_size 1920x1080
    • 指定视频的分辨率(宽度 x 高度)。
    • 必须准确指定,否则播放时会出现图像错位或播放失败。

2.使用C语言实现将YUV数据转为JPEG图片格式

2.1需求分析

项目需求:从camera sensor传出来的数据为一帧帧的NV12格式数据,需要将每帧数据转为JPEG图片。

分析转换流程:

其中如果一开始的YUV数据本身已经为平面格式的话,无需进行转换,直接可以在初始化完之后,进行编码

MJPEG支持主流的平面格式,如果是打包格式,则需要进行转换为平面格式

AV_PIX_FMT_YUVJ420P,
AV_PIX_FMT_YUVJ422P,  
AV_PIX_FMT_YUVJ444P,  

2.2读取YUV源文件

int readYUVFile(const char *filename, int width, int height, unsigned char *&originalData)
{
    // 读取YUV 文件
    FILE *file = fopen(filename, "rb");
    if (!file)
    {
        cerr << "Failed to open file." << endl;
        return -1;
    }
    size_t originalSize = width * height * 3 / 2; // YUV420 8-bit 1.5 bytes per pixel
    originalData = new unsigned char[originalSize];

    // 读取原始数据  这里是读取一帧, 如果要多帧数据,则使用循环
    if (fread(originalData, sizeof(unsigned char), originalSize, file) != originalSize)
    {
        cerr << "Failed to read data." << endl;
        delete[] originalData;
        fclose(file);
        return -1;
    }
    fclose(file);
    return 0;
}

这里是读取了一帧,因为我的文件本身只有一帧数据,如果是多帧数据,那么需要考虑使用while循环

2.3将YUV数据封装为AVFrame

// 将一帧YUV数据 封装成AVFrame
int yuv_dataToAVFrame(unsigned char *originalData)
{
    original_frame = av_frame_alloc();
    if (!original_frame)
    {
        cerr << "Failed to allocate AVFrame." << std::endl;
        return -1;
    }
    // 设置frame 参数
    original_frame->width = 1920;
    original_frame->height = 1080;
    original_frame->format = AV_PIX_FMT_NV12;
    if (av_frame_get_buffer(original_frame, 0) < 0)
    {
        cerr << "Failed to alloc frame data" << endl;
        av_frame_free(&original_frame);
        return -1;
    }
    // copy data to frame
    int ret = av_image_fill_arrays(original_frame->data, original_frame->linesize, originalData, AV_PIX_FMT_NV12, 1920, 1080, 1);
    if (ret < 0)
    {
        std::cerr << "Failed to fill frame data." << std::endl;
        av_frame_free(&original_frame);
        return -1;
    }
}

Frame不仅仅存放了原数据,还需要指定一些参数,宽度和高度,编码格式,

2.4将NV12 转换为YUV420平面格式

int nv12_to_yuv420p( AVFrame *&frame, AVFrame *&nv12_frame,int width,int height,const unsigned char *nv12_data){
    frame = av_frame_alloc();
    if (!frame) {
        std::cerr << "Failed to allocate AVFrame." << std::endl;
        return -1;
    }
    frame->format = AV_PIX_FMT_YUV420P;
    frame->width = width;
    frame->height = height;
    av_image_alloc(frame->data, frame->linesize, width, height, AV_PIX_FMT_YUV420P, 1);
    nv12_frame = av_frame_alloc();
    if (!nv12_frame) {
        std::cerr << "Failed to allocate AVFrame for NV12." << std::endl;
        av_frame_free(&frame);
        return -1;
    }
    nv12_frame->format = AV_PIX_FMT_NV12;
    nv12_frame->width = width;
    nv12_frame->height = height;
    av_image_fill_arrays(nv12_frame->data, nv12_frame->linesize, nv12_data, AV_PIX_FMT_NV12, width, height, 1);

    struct SwsContext *sws_ctx = sws_getContext(width, height, AV_PIX_FMT_NV12, width, height, AV_PIX_FMT_YUV420P, 0, nullptr, nullptr, nullptr);
    if (!sws_ctx) {
        std::cerr << "Could not create SwsContext." << std::endl;
        av_frame_free(&nv12_frame);
        av_frame_free(&frame);
        return -1;
    }

    cout<<"scale begin"<<endl;
    sws_scale(sws_ctx, nv12_frame->data, nv12_frame->linesize, 0, height, frame->data, frame->linesize);
    sws_freeContext(sws_ctx);
    cout<<"scale endl"<<endl;
}

如果数据本身已经是平面格式,无需这个步骤

2.5初始化MJPEG编码器

int init_mjpeg_encoder(AVFrame *frame)
{
    // 寻找编码器
    AVCodec *codec = avcodec_find_encoder(AV_CODEC_ID_MJPEG);
    if (!codec)
    {
        std::cerr << "Codec not found" << std::endl;
        return -1;
    }
    // 分配编码器上下文
   codec_ctx = avcodec_alloc_context3(codec);
    if (!codec_ctx)
    {
        std::cerr << "Could not allocate video codec context" << std::endl;
        return -1;
    }
    // 配置编码器参数
    codec_ctx->bit_rate = 400000;
    codec_ctx->width = frame->width;
    codec_ctx->height = frame->height;
    codec_ctx->time_base = {1, 25};
    codec_ctx->pix_fmt = AV_PIX_FMT_YUVJ420P;   // 
    // 打开编码器
    if (avcodec_open2(codec_ctx, codec, nullptr) < 0)
    {
        std::cerr << "Could not open codec" << std::endl;
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    return 0;
}

这里需注意:设定编码器上下文支持的格式,而且要与Frame的格式对应,为平面格式,否则会编码失败

2.6将YUV420P编码为JPEG

int frame_encode(AVFrame *frame)
{

    //初始化数据包
    packet = av_packet_alloc();
    if (!packet)
    {
        std::cerr << "Could not allocate AVPacket" << std::endl;
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    //发送原始数据帧
    if(!codec_ctx){
        cout<<"codec_ctx is null"<<endl;
        return -1;
    }
    if(!frame){
        cout<<"frame is null"<<endl;
        return -1;
    }
    int ret = avcodec_send_frame(codec_ctx,frame);
    if(ret<0){
        std::cerr << "Error sending frame to codec context" << std::endl;
        av_packet_free(&packet);
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    // 接收编码后的数据帧
     ret = avcodec_receive_packet(codec_ctx, packet);
    if (ret < 0) {
        std::cerr << "Error receiving packet from codec context" << std::endl;
        av_packet_free(&packet);
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    return 0;
}

这里仅针对一帧完成了编码,多帧请考虑使用循环

2.7将编码数据写入图片文件

int save_frame_as_jpeg(const char *filename){
    std::ofstream outfile(filename, std::ios::out | std::ios::binary);
    if (!outfile.is_open()) {
        std::cerr << "Could not open output file" << std::endl;
        av_packet_free(&packet);
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    outfile.write(reinterpret_cast<const char *>(packet->data), packet->size);
    outfile.close();
    return 0;
}

2.8完整代码

头文件 hpp

#ifndef __STDC_CONSTANT_MACROS
#define __STDC_CONSTANT_MACROS
#endif

extern "C"
{
#include <stdio.h>
#include "libavutil/avutil.h"
#include "libavdevice/avdevice.h"
#include "libavformat/avformat.h"
#include "libavcodec/avcodec.h"
#include <libswscale/swscale.h>
#include "libswresample/swresample.h"
#include "libavutil/imgutils.h"
}
#include <fstream>
#include <iostream>
using namespace std;
AVFormatContext *format_ctx;
AVPacket *packet;
AVFrame *original_frame,*new_frame;
AVCodec *codec;
AVCodecContext *codec_ctx;

c++实现

#include "readYUV.hpp"
int readYUVFile(const char *filename, int width, int height, unsigned char *&originalData)
{
    // 读取YUV 文件
    FILE *file = fopen(filename, "rb");
    if (!file)
    {
        cerr << "Failed to open file." << endl;
        return -1;
    }
    size_t originalSize = width * height * 3 / 2; // YUV420 8-bit 1.5 bytes per pixel
    originalData = new unsigned char[originalSize];

    // 读取原始数据  这里是读取一帧, 如果要多帧数据,则使用循环
    if (fread(originalData, sizeof(unsigned char), originalSize, file) != originalSize)
    {
        cerr << "Failed to read data." << endl;
        delete[] originalData;
        fclose(file);
        return -1;
    }
    fclose(file);
    return 0;
}
// 将一帧YUV数据 封装成AVFrame
int yuv_dataToAVFrame(unsigned char *originalData)
{
    original_frame = av_frame_alloc();
    if (!original_frame)
    {
        cerr << "Failed to allocate AVFrame." << std::endl;
        return -1;
    }
    // 设置frame 参数
    original_frame->width = 1920;
    original_frame->height = 1080;
    original_frame->format = AV_PIX_FMT_NV12;
    if (av_frame_get_buffer(original_frame, 0) < 0)
    {
        cerr << "Failed to alloc frame data" << endl;
        av_frame_free(&original_frame);
        return -1;
    }
    // copy data to frame
    int ret = av_image_fill_arrays(original_frame->data, original_frame->linesize, originalData, AV_PIX_FMT_NV12, 1920, 1080, 1);
    if (ret < 0)
    {
        std::cerr << "Failed to fill frame data." << std::endl;
        av_frame_free(&original_frame);
        return -1;
    }
}
// 初始化 MJPEG编码器
int init_mjpeg_encoder(AVFrame *frame)
{
    // 寻找编码器
    AVCodec *codec = avcodec_find_encoder(AV_CODEC_ID_MJPEG);
    if (!codec)
    {
        std::cerr << "Codec not found" << std::endl;
        return -1;
    }
    // 分配编码器上下文
   codec_ctx = avcodec_alloc_context3(codec);
    if (!codec_ctx)
    {
        std::cerr << "Could not allocate video codec context" << std::endl;
        return -1;
    }
    // 配置编码器参数
    codec_ctx->bit_rate = 400000;
    codec_ctx->width = frame->width;
    codec_ctx->height = frame->height;
    codec_ctx->time_base = {1, 25};
    codec_ctx->pix_fmt = AV_PIX_FMT_YUVJ420P;   // 
    // 打开编码器
    if (avcodec_open2(codec_ctx, codec, nullptr) < 0)
    {
        std::cerr << "Could not open codec" << std::endl;
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    return 0;
}
// 对一帧 frame 进行编码
int frame_encode(AVFrame *frame)
{

    //初始化数据包
    packet = av_packet_alloc();
    if (!packet)
    {
        std::cerr << "Could not allocate AVPacket" << std::endl;
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    //发送原始数据帧
    if(!codec_ctx){
        cout<<"codec_ctx is null"<<endl;
        return -1;
    }
    if(!frame){
        cout<<"frame is null"<<endl;
        return -1;
    }
    int ret = avcodec_send_frame(codec_ctx,frame);
    if(ret<0){
        std::cerr << "Error sending frame to codec context" << std::endl;
        av_packet_free(&packet);
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    // 接收编码后的数据帧
     ret = avcodec_receive_packet(codec_ctx, packet);
    if (ret < 0) {
        std::cerr << "Error receiving packet from codec context" << std::endl;
        av_packet_free(&packet);
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    return 0;
}
// 将 NV12 数据帧 转换为 YUV420P 数据帧  yuv420sp ---->yuv420p 从打包格式转换为平面格式
int nv12_to_yuv420p( AVFrame *&frame, AVFrame *&nv12_frame,int width,int height,const unsigned char *nv12_data){
    frame = av_frame_alloc();
    if (!frame) {
        std::cerr << "Failed to allocate AVFrame." << std::endl;
        return -1;
    }
    frame->format = AV_PIX_FMT_YUV420P;
    frame->width = width;
    frame->height = height;
    av_image_alloc(frame->data, frame->linesize, width, height, AV_PIX_FMT_YUV420P, 1);
    nv12_frame = av_frame_alloc();
    if (!nv12_frame) {
        std::cerr << "Failed to allocate AVFrame for NV12." << std::endl;
        av_frame_free(&frame);
        return -1;
    }
    nv12_frame->format = AV_PIX_FMT_NV12;
    nv12_frame->width = width;
    nv12_frame->height = height;
    av_image_fill_arrays(nv12_frame->data, nv12_frame->linesize, nv12_data, AV_PIX_FMT_NV12, width, height, 1);

    struct SwsContext *sws_ctx = sws_getContext(width, height, AV_PIX_FMT_NV12, width, height, AV_PIX_FMT_YUV420P, 0, nullptr, nullptr, nullptr);
    if (!sws_ctx) {
        std::cerr << "Could not create SwsContext." << std::endl;
        av_frame_free(&nv12_frame);
        av_frame_free(&frame);
        return -1;
    }

    cout<<"scale begin"<<endl;
    sws_scale(sws_ctx, nv12_frame->data, nv12_frame->linesize, 0, height, frame->data, frame->linesize);
    sws_freeContext(sws_ctx);
    cout<<"scale endl"<<endl;
}
int save_frame_as_jpeg(const char *filename){
    std::ofstream outfile(filename, std::ios::out | std::ios::binary);
    if (!outfile.is_open()) {
        std::cerr << "Could not open output file" << std::endl;
        av_packet_free(&packet);
        avcodec_free_context(&codec_ctx);
        return -1;
    }
    outfile.write(reinterpret_cast<const char *>(packet->data), packet->size);
    outfile.close();
    return 0;
}
int main()
{
    const char *filename = "input_test.yuv";
    unsigned char *originalData = nullptr;
    // 将读取的内存数据 赋值给originalData
    int ret = readYUVFile(filename, 1920, 1080, originalData);
    if (ret < 0)
    {
        cout << "open file fail " << endl;
        return -1;
    }
    // 将yuvdata 转化为 frame
    yuv_dataToAVFrame(originalData);
    //originalFrame 转化为 yuv420p frame
    nv12_to_yuv420p(new_frame,original_frame,1920,1080,originalData);
    // 打开编码器
    ret = init_mjpeg_encoder(new_frame);
    if (ret < 0)
    {
        cout << "open mjpeg encoder fail" << endl;
        return -1;
    }
    //编码
    ret =  frame_encode(new_frame);
    if(ret <0){
        cout <<"encode fail"<<endl;
        return -1;
    }

    //输出文件
    ret = save_frame_as_jpeg("output.jpeg");
     if(ret <0){
        cout <<"save jpeg fail"<<endl;
        return -1;
    }
    cout<<"yuv data susccess convert jpeg!"<<endl;
    //收尾工作
    av_packet_free(&packet);
    avcodec_free_context(&codec_ctx);
    delete[] originalData;
    av_frame_free(&original_frame);
    av_frame_free(&new_frame);
    
    return 0;
}
相关推荐
Eric.Lee20211 小时前
moviepy将图片序列制作成视频并加载字幕 - python 实现
开发语言·python·音视频·moviepy·字幕视频合成·图像制作为视频
却道天凉_好个秋1 小时前
音视频学习(二十四):hls协议
音视频·hls
-Mr_X-3 小时前
windows下srs流媒体服务器使用ffmpeg推流
ffmpeg
dvlinker4 小时前
C++开源项目 VLC 源代码的交叉编译以及库的裁剪方法详解
ffmpeg·mingw-w64·msys2·cygwin·开源vlc·vlc编译·vlc裁剪
darkdragonking13 小时前
FLV视频封装格式详解
音视频
元争栈道15 小时前
webview和H5来实现的android短视频(短剧)音视频播放依赖控件
android·音视频
元争栈道16 小时前
webview+H5来实现的android短视频(短剧)音视频播放依赖控件资源
android·音视频
因我你好久不见18 小时前
springboot java ffmpeg 视频压缩、提取视频帧图片、获取视频分辨率
java·spring boot·ffmpeg
MediaTea20 小时前
Pr:音频仪表
音视频
桃园码工20 小时前
13_HTML5 Audio(音频) --[HTML5 API 学习之旅]
音视频·html5·audio