RV1126+FFMPEG推流项目(11)编码音视频数据 + FFMPEG时间戳处理

本节介绍本章节主要讲解的是push_server_thread 线程的具体处理流程, push_server_thread这个线程的主要功能是通过时间戳比较,来处理音频、视频的数据并最终推流到SRT、RTMP、UDP、RTSP服务器

****push_server_thread:****流程如下

上图,主要阐述了p ush_server_thread 的工作流程,因为这个线程主要处理的是通过时间戳进行比较(a v_compare_ts )。若检测到音频时间戳则处理音频数据,若检测到视频时间戳则处理视频数据,最终把音视频数据合成到TS、FLV并推流到RTMP、SRT、UDP、RTSP服务器。

上图, 是视频编码时间戳、音频编码时间戳经过了时间基转换后的具体数值:视频时间基成video_time_base = {1,25},音频时间基audio_time_base = {1,48000}转换成TS后:视频PTS = {0,3600,7200,10800,14400,18000...},音频PTS = {0, 1920,3840,5760,7680,9600...}。

这里要注意的是:

  1. 在这个推流项目中视频帧率和时间基固定成v ideo_time_base = {1,25},v ideo_frame_rate = {1,25}。因为底层驱缘故,易百纳的摄像头帧率可能只支持25帧,所以编码帧率和时间基只能设置{1,25},否则就会导致音视频不同步。

    1. 视频VIDEO_PTS和音频AUDIO_PTS,需要按照一定的数值规律进行累加。中间不能出现任何的丢失和错误,否则就会出现各种问题,如花屏、卡顿、音视频不同步等问题。 比方说:v ideo_pts = {0,3600,7200 ,, ****14400}****这种属于PTS出现丢失;
    2. push_server_thread线程模块讲解:

    // 音视频合成推流线程
    /**

    • @brief 推送服务器线程的入口函数

    • 该函数负责在一个独立的线程中处理音视频数据的推送任务。

    • 它通过比较视频和音频的时间戳来决定下一个要处理的数据类型,

    • 以确保音视频同步。此外,它还负责释放相关的资源。

    • @param args 传递给线程的参数,这里是FFMPEG的配置信息

    • @return void* 返回线程的退出状态
      */
      void *push_server_thread(void *args)
      {
      // 确保线程可以独立运行,即使父线程结束,该线程也不会变为僵死状态
      pthread_detach(pthread_self());

      // 将传递给线程的参数转换为所需的结构体类型
      RKMEDIA_FFMPEG_CONFIG ffmpeg_config = *(RKMEDIA_FFMPEG_CONFIG *)args;

      // 释放传递给线程的参数内存
      free(args);

      // 初始化AVOutputFormat指针
      AVOutputFormat *fmt = NULL;

      // 初始化返回值变量
      int ret;

      // 无限循环,处理音视频数据
      while (1)
      {
      /*
      我们以转换到同一时基下的时间戳为例,假设上一时刻音、视频帧的保存时间戳都是0。
      当前任意保存一种视频帧,例如保存视频的时间戳为video_t1。接着比较时间戳,发现音频时间戳为0 < video_t1,保存一帧音频,时间戳为audio_t1。
      继续比较时间戳,发现audio_t1 < video_t1,选择保存一帧音频,时间戳为audio_t2。
      再一次比较时间戳video_t1 < audio_t2,选择保存一帧视频,时间戳为video_t2。
      int av_compare_ts(int64_t ts_a, AVRational_tb_b,int64_t ts_b, AVRational tb_b)
      {
      int64_t a = tb_a.num * (int64_t)tb_b.den;
      int64_t b = tb_b.num * (int64_t)tb_a.den;
      if ((FFABS64U(ts_a)|a|FFABS64U(ts_b)|b) <= INT_MAX)
      return (ts_aa > ts_bb) - (ts_aa < ts_bb);
      if (av_rescale_rnd(ts_a, a, b, AV_ROUND_DOWN) < ts_b)
      return -1;
      if (av_rescale_rnd(ts_b, b, a, AV_ROUND_DOWN) < ts_a)
      return -1;
      return 0;
      }
      */
      // 比较视频和音频的时间戳,决定下一个要处理的数据类型
      ret = av_compare_ts(ffmpeg_config.video_stream.next_timestamp,
      ffmpeg_config.video_stream.enc->time_base,
      ffmpeg_config.audio_stream.next_timestamp,
      ffmpeg_config.audio_stream.enc->time_base);

       // 如果视频时间戳小于等于音频时间戳,处理视频数据
       if (ret <= 0)
       {
           ret = deal_video_avpacket(ffmpeg_config.oc, &ffmpeg_config.video_stream); // 处理FFMPEG视频数据
           if (ret == -1)
           {
               printf("deal_video_avpacket error\n");
               break;
           }
       }
       else // 否则,处理音频数据
       {
           ret = deal_audio_avpacket(ffmpeg_config.oc, &ffmpeg_config.audio_stream); // 处理FFMPEG音频数据
           if (ret == -1)
           {
               printf("deal_video_avpacket error\n");
               break;
           }
       }
      

      }

      // 写入AVFormatContext的尾巴
      av_write_trailer(ffmpeg_config.oc);

      // 释放VIDEO_STREAM的资源
      free_stream(ffmpeg_config.oc, &ffmpeg_config.video_stream);

      // 释放AUDIO_STREAM的资源
      free_stream(ffmpeg_config.oc, &ffmpeg_config.audio_stream);

      // 释放AVIO资源
      avio_closep(&ffmpeg_config.oc->pb);

      // 释放AVFormatContext资源
      avformat_free_context(ffmpeg_config.oc);

      return NULL;
      }

上面的代码就是push_server_thread 线程的主要工作, 从上面的的代码可以分析到av_compare_ts去进行每一帧时间戳的比较。我们设定用ts_atb_a 作为视频的时间戳时间基ts_btb_b 作为音频的时间戳时间基。 若ret(返回值)<=0,则说明此时要处理视频编码数据,就调用deal_video_avpacket函数进行视频编码数据的写入;否则就调用deal_audio_avpacket 进行音频编码数据的写入,当这个线程退出后, 先a v_write_trailer 结束写入文件结束符,并释放所有的资源数据(free _streama vio_clospa vforamt_free_context)。

av_compare_ts的作用:

把音视频的顺序弄正确,防止解码端解码端出错。它的主要作用是进行时间戳进行实时比较,它能够实时保证当前的时间戳是,准确无误的。它不会出现时间戳混乱的情况,所谓混乱的情况就相当于:视频时间戳当成音频时间戳处理,音频时间戳当成视频时间戳处理。

push_server_thread线程,里面最重要的两个函数 deal_video_avpacket和deal_audio_avpacket

deal_video_avpacket:

/**
 * 处理视频AVPacket,将其写入到复合流中
 * 
 * @param oc AVFormatContext指针,表示复合流的上下文
 * @param ost OutputStream指针,包含编码和流信息
 * @return 成功返回0,失败返回-1
 */
int deal_video_avpacket(AVFormatContext *oc, OutputStream *ost)
{
    int ret;
    AVCodecContext *c = ost->enc; // 获取编码器上下文
    AVPacket *video_packet = get_ffmpeg_video_avpacket(ost->packet); // 从RV1126视频编码数据赋值到FFMPEG的Video AVPacket中
    if (video_packet != NULL)
    {
        video_packet->pts = ost->next_timestamp++; // VIDEO_PTS按照帧率进行累加
    }

    ret = write_ffmpeg_avpacket(oc, &c->time_base, ost->stream, video_packet); // 向复合流写入视频数据
    if (ret != 0)
    {
        printf("write video avpacket error");
        return -1;
    }

    return 0;
}

deal_video_avpacket函数里面主要包含了以下重要的功能:

第一步: 通过get_ffmpeg_video_avpacket 函数里面,从视频队列中获取视频编码数据,并把视频数据赋值到A VPacket里面(这里很重要,因为我们最终推流用的都是AVPacket结构体数据)。

get_ffmpeg_video_avpacket:

AVPacket *get_ffmpeg_video_avpacket(AVPacket *pkt)
{
    video_data_packet_t *video_data_packet = video_queue->getVideoPacketQueue(); // 从视频队列获取数据

    if (video_data_packet != NULL)
    {
/*
    重新为FFMPEG的Video AVPacket分配给定的缓冲区
    1.  如果入参的 AVBufferRef 为空,直接调用 av_realloc 分配一个新的缓存区,并调用 av_buffer_create 返回一个新的 AVBufferRef 结构;
    2.  如果入参的缓存区长度和入参 size 相等,直接返回 0;
    3.  如果对应的 AVBuffer 设置了 BUFFER_FLAG_REALLOCATABLE 标志,或者不可写,再或者 AVBufferRef data 字段指向的数据地址和 AVBuffer 的 data 地址不同,
        递归调用 av_buffer_realloc 分配一个新的 buffer,并将 data 拷贝过去;
    4.  不满足上面的条件,直接调用 av_realloc 重新分配缓存区。
 */
        int ret = av_buffer_realloc(&pkt->buf, video_data_packet->video_frame_size + 70);
        if (ret < 0)
        {
            return NULL;
        }
        pkt->size = video_data_packet->video_frame_size;                                        // rv1126的视频长度赋值到AVPacket Size
        memcpy(pkt->buf->data, video_data_packet->buffer, video_data_packet->video_frame_size); // rv1126的视频数据先拷贝到ptk->buf->data中
        pkt->data = pkt->buf->data;                                                             // 把pkt->buf->data赋值到pkt->data,如果直接赋给pkt->data,会报错
        pkt->flags |= AV_PKT_FLAG_KEY;                                                          // 默认flags是AV_PKT_FLAG_KEY,关键帧,如果没有回黑屏
        if (video_data_packet != NULL)
        {
            free(video_data_packet);                                                            //释放掉内存
            video_data_packet = NULL;
        }
        //已经把视频队列里面的数据已经拷贝到了ffmpeg的packet的data中。

        return pkt;     //返回一个指针,指向ffmpeg的packet的data,因为我们最终推流用的都是AVPacket结构体数据
    }
    else
    {
        return NULL;  //队列里面没有数据了,
    }
}

这里需要注意的有两个地方:

在AVPacket中buf的赋值,不能够直接赋值,如:memcpy (pkt->data, video_data_packet->buffer, video_data_packet->frame_size) 否则程序就会出现c ore_dump 情况。我们需要先把video_data_packet_t的视频数据(v ide o _data_packet->buffer)先拷贝到pkt->buf->data,然后再把pkt->buf->data的数据赋值到pkt->data。

  memcpy(pkt->buf->data, video_data_packet->buffer, video_data_packet->video_frame_size); // rv1126的视频数据先拷贝到ptk->buf->data中
  pkt->data = pkt->buf->data;   

对于视频的A VP acket中,需要对它的标识符flag进行关键帧设置(pkt->flags |= AV_PKT_FLAG_KEY),否则解码端则无法正常播放视频。代码如下:

pkt->flags |= AV_PKT_FLAG_KEY;  // 默认flags是AV_PKT_FLAG_KEY,关键帧,如果没有会没有办法播放,黑屏

第二步: 根据AVPacket的数据去计算视频的PTS,若AVPacket的数据不为空。则让视频video_packet->pts = ost->next_timestamp++; ( 关于v ideo 的P TS 计算,上一篇已经聊过了 )

第三步:write_ffmpeg_avpacket: 把视频PTS进行时间基的转换,调用av_packet_rescale_ts 把采集的视频时间基转换成复合流的时间基。时间基转换完成之后,就把视频数据写入到复合流文件里面,调用的API是av_interleaved_write_frame (注意:复合流文件可以是本地文件也可以是流媒体地址)。

/**
 * 写入FFmpeg视频数据包
 * 
 * 此函数负责将一个AVPacket中的数据写入到视频文件中在写入之前,它会根据提供的time_base和流的time_base调整AVPacket的时间戳
 * 这是为了确保时间戳匹配流的时基,防止播放时出现同步问题
 * 
 * @param fmt_ctx FFmpeg格式上下文,用于写入数据
 * @param time_base 指向AVRational的指针,表示时间基数
 * @param st 视频流,用于确定stream_index
 * @param pkt 包含编码视频数据的AVPacket
 * @return 返回av_interleaved_write_frame的结果,表示写入操作是否成功
 */
int write_ffmpeg_avpacket(AVFormatContext *fmt_ctx, const AVRational *time_base, AVStream *st, AVPacket *pkt)
{
    /*将输出数据包时间戳值从编解码器重新调整为流时基 */
    av_packet_rescale_ts(pkt, *time_base, st->time_base);
    pkt->stream_index = st->index;

    // 向复合流写入视频数据,复合流文件可以是本地文件也可以是流媒体地址
    return av_interleaved_write_frame(fmt_ctx, pkt); 
}

deal_audio_avpacket 的实现****:流程和视频的基本一样****

int deal_audio_avpacket(AVFormatContext *oc, OutputStream *ost)
{
    int ret;
    AVCodecContext *c = ost->enc;
    AVPacket *audio_packet = get_ffmpeg_audio_avpacket(ost->packet); // 从RV1126视频编码数据赋值到FFMPEG的Audio AVPacket中
    if (audio_packet != NULL)
    {
        audio_packet->pts = ost->samples_count;
        ost->samples_count += 1024;
        ost->next_timestamp = ost->samples_count; // AUDIO_PTS按照帧率进行累加1024
    }

    ret = write_ffmpeg_avpacket(oc, &c->time_base, ost->stream, audio_packet); // 向复合流写入音频数据
    if (ret != 0)
    {
        printf(" write audio avpacket error");
        return -1;
    }

    return 0;
}

deal_audio_avpacket函数里面主要包含了以下重要的功能:

第一步: 通过get_ffmpeg_audio_avpacket 函数里面,从音频队列中获取音频编码数据,并把音频数据赋值到A VPacket里面(这里很重要,因为我们最终推流用的都是AVPacket结构体数据)。具体的赋值如下图:

AVPacket *get_ffmpeg_audio_avpacket(AVPacket *pkt)
{
    audio_data_packet_t *audio_data_packet = audio_queue->getAudioPacketQueue();// 从音频队列获取数据

    if (audio_data_packet != NULL)
    {
        /*
  重新分配给定的缓冲区
1.  如果入参的 AVBufferRef 为空,直接调用 av_realloc 分配一个新的缓存区,并调用 av_buffer_create 返回一个新的 AVBufferRef 结构;
2.  如果入参的缓存区长度和入参 size 相等,直接返回 0;
3.  如果对应的 AVBuffer 设置了 BUFFER_FLAG_REALLOCATABLE 标志,或者不可写,再或者 AVBufferRef data 字段指向的数据地址和 AVBuffer 的 data 地址不同,递归调用 av_buffer_realloc 分配一个新
的 buffer,并将 data 拷贝过去;
4.  不满足上面的条件,直接调用 av_realloc 重新分配缓存区。
*/
        int ret = av_buffer_realloc(&pkt->buf, audio_data_packet->audio_frame_size + 70);
        if (ret < 0)
        {
            return NULL;
        }

        pkt->size = audio_data_packet->audio_frame_size; // rv1126的音频长度赋值到AVPacket Size
        memcpy(pkt->buf->data, audio_data_packet->buffer, audio_data_packet->audio_frame_size); //rv1126的音频数据赋值到AVPacket data
        pkt->data = pkt->buf->data; // 把pkt->buf->data赋值到pkt->data

        if (audio_data_packet != NULL)
        {
            free(audio_data_packet);
            audio_data_packet = NULL;
        }

        return pkt;
    }
    else
    {
        return NULL;
    }
}

我们来分析音频A VP acket如何赋值:

第一步 :在AVPacket中buf的赋值,不能够直接赋值,如:memcpy (pkt->data, audio _data_packet->buffer, audio _data_packet->frame_size) 否则程序就会出现core_dump情况。我们需要先把audio_data_packet_t的视频数据(audio_data_packet->buffer)先拷贝到pkt->buf->data,然后再把pkt->buf->data的数据赋值到pkt->data。

****第二步:****根据AVPacket的数据去计算音频的PTS,若音频AVPacket的数据不为空。则对音频PTS进行计算,计算公式如下:

audio_packet->pts = ost->samples_count;

ost->samples_count += 1024;

ost->next_timestamp = ost->samples_count; // AUDIO_PTS按照帧率进行累加1024

( 关于 audio 的P TS 计算是每次累加1 024 ,上一节课已经讲了 )

第三步:和视频一样 把音频PTS进行时间基的转换,调用av_packet_rescale_ts 把采集的音频时间基转换成复合流的时间基。时间基转换完成之后,就把音频数据写入到复合流文件里面,调用的API是同样也是av_interleaved_write_frame (注意:复合流文件可以是本地文件也可以是流媒体地址)。

最后一步释放资源:

void *push_server_thread(void *args)
{
    // 确保线程可以独立运行,即使父线程结束,该线程也不会变为僵死状态
    pthread_detach(pthread_self());

    // 将传递给线程的参数转换为所需的结构体类型
    RKMEDIA_FFMPEG_CONFIG ffmpeg_config = *(RKMEDIA_FFMPEG_CONFIG *)args;

    // 释放传递给线程的参数内存
    free(args);

    // 初始化AVOutputFormat指针
    AVOutputFormat *fmt = NULL;

    // 初始化返回值变量
    int ret;

    // 无限循环,处理音视频数据
    while (1)
    {
        /*
         我们以转换到同一时基下的时间戳为例,假设上一时刻音、视频帧的保存时间戳都是0。
         当前任意保存一种视频帧,例如保存视频的时间戳为video_t1。接着比较时间戳,发现音频时间戳为0 < video_t1,保存一帧音频,时间戳为audio_t1。
         继续比较时间戳,发现audio_t1 < video_t1,选择保存一帧音频,时间戳为audio_t2。
         再一次比较时间戳video_t1 < audio_t2,选择保存一帧视频,时间戳为video_t2。
         int av_compare_ts(int64_t ts_a, AVRational_tb_b,int64_t ts_b, AVRational tb_b)
         {
             int64_t a = tb_a.num * (int64_t)tb_b.den;
             int64_t b = tb_b.num * (int64_t)tb_a.den;
             if ((FFABS64U(ts_a)|a|FFABS64U(ts_b)|b) <= INT_MAX)
                 return (ts_a*a > ts_b*b) - (ts_a*a < ts_b*b);
             if (av_rescale_rnd(ts_a, a, b, AV_ROUND_DOWN) < ts_b)
                 return -1;
              if (av_rescale_rnd(ts_b, b, a, AV_ROUND_DOWN) < ts_a)
                 return -1;
             return 0;
         }
         */
        // 比较视频和音频的时间戳,决定下一个要处理的数据类型
        ret = av_compare_ts(ffmpeg_config.video_stream.next_timestamp,
                            ffmpeg_config.video_stream.enc->time_base,
                            ffmpeg_config.audio_stream.next_timestamp,
                            ffmpeg_config.audio_stream.enc->time_base);

        // 如果视频时间戳小于等于音频时间戳,处理视频数据
        if (ret <= 0)
        {
            ret = deal_video_avpacket(ffmpeg_config.oc, &ffmpeg_config.video_stream); // 处理FFMPEG视频数据
            if (ret == -1)
            {
                printf("deal_video_avpacket error\n");
                break;
            }
        }
        else // 否则,处理音频数据
        {
            ret = deal_audio_avpacket(ffmpeg_config.oc, &ffmpeg_config.audio_stream); // 处理FFMPEG音频数据
            if (ret == -1)
            {
                printf("deal_video_avpacket error\n");
                break;
            }
        }
    }

    // 写入AVFormatContext的尾巴
    av_write_trailer(ffmpeg_config.oc);

    // 释放VIDEO_STREAM的资源
    free_stream(ffmpeg_config.oc, &ffmpeg_config.video_stream);

    // 释放AUDIO_STREAM的资源
    free_stream(ffmpeg_config.oc, &ffmpeg_config.audio_stream);

    // 释放AVIO资源
    avio_closep(&ffmpeg_config.oc->pb);

    // 释放AVFormatContext资源
    avformat_free_context(ffmpeg_config.oc);

    return NULL;
}

avcodec_close ****:****关闭编码器

a vcodec_free_context 释放解码器上下文

a v_buffer_unref 将当前的AVBufferRef指针指向的内存释放,并对AVBufferRef指向的数据引用计数减1

a v_packet_unref ****:****对AVPacket进行清理

a v_packet_free ****:****释放AVPacket所有资源

avio _closep 关闭输出文件IO

avformat_free_context ****:****销毁AVFormatContext结构体

相关推荐
struggle20254 小时前
2025开源DouyinLiveRecorder全平台直播间录制工具整合包,多直播同时录制、教学直播录制、教学视频推送、简单易用不占内存
图像处理·计算机视觉·开源·音视频·语音识别
追光天使11 小时前
Mac M1 源码安装FFmpeg,开启enable-gpl 和 lib x264
macos·ffmpeg
硬件学长森哥1 天前
音视频多媒体编解码器基础-codec
驱动开发·嵌入式硬件·音视频
小镇拾光1 天前
PPT演示设置:插入音频&同步切换&播放时长计算
powerpoint·音视频·ppt播放设置
cuijiecheng20181 天前
FFmpeg源码:av_base64_decode函数分析
ffmpeg
程序猿玖月柒1 天前
全志 视频输入组件的使用
音视频
soonlyai1 天前
Windows平台最新视频号内容下载工具(MP4格式一键解析)
人工智能·经验分享·产品运营·音视频·流量运营·视频编解码·视频
2035去旅行1 天前
FFmpeg(7.1版本)编译:Ubuntu18.04交叉编译到ARM
arm开发·ffmpeg
消失的旧时光-19431 天前
Android-音频采集
android·音视频
我码玄黄1 天前
FFmpeg:多媒体处理的瑞士军刀
后端·ffmpeg·开源