ffmpeg 的内存分配架构


author: hjjdebug

date: 2024年 08月 01日 星期四 18:00:47 CST

descripton: ffmpeg 的内存分配架构1


ffmpeg 的内配分配搞的人晕菜,来,我们分析一下:

看看下面的调用图,就知道其中关系了!

0 in av_malloc of libavutil/mem.c:86 //跟malloc 差不多! 一个参数(大小),只是64字节对齐

1 in av_mallocz of libavutil/mem.c:239 //带z就是内存清0

2 in av_buffer_create of libavutil/buffer.c:49 //引入AVBuffer的概念

3 in av_buffer_alloc of libavutil/buffer.c:76 //跟malloc 差不多! 一个参数(大小),返回是AVBufferRef *

4 in av_buffer_allocz of libavutil/buffer.c:85 //带z就是内存清0

5 in pool_alloc_buffer of libavutil/buffer.c:352 //无空闲项,分配一个pool_entry ,包含一个AVBufferRef* ,数据大小由pool->size决定

6 in av_buffer_pool_get of libavutil/buffer.c:388 //从内存池(AVBufferPool)中申请内存,返回AVBufferRef *

7 in video_get_buffer of libavcodec/decode.c:1663 // 需要拿到YUV3个平面的内存地址 ,需要3个AVBufferPool

8 in avcodec_default_get_buffer2 of libavcodec/decode.c:1702 //初始化好FramePool内存池(3个 AVBufferPool池),然后从video或者从audio拿内存

9 in ff_get_buffer of libavcodec/decode.c:1937 //为frame分配内存地址及copy一些属性

10 in thread_get_buffer_internal of libavcodec/pthread_frame.c:1006 //只是个简单包装

11 in ff_thread_get_buffer of libavcodec/pthread_frame.c:1098 //只是个简单包装

0,1,2,3,4, 这4层是最基础的内存分配架构

5,6是内存池

7,8是video,audio内存分配

  1. codec解码frame时前期基本属性copy及内存分配.

10,11: 只是简单封装.
以上即是codec 解码数据包时的内存分配工作. 由此来了解它的底层工作流程


第0层: av_malloc


void *av_malloc(size_t size)

{

void *ptr=NULL;

posix_memalign(&ptr, 64, size)

return ptr;

}

问题: av_malloc 与 malloc 有什么区别?

答: av_malloc 其实等价于malloc,

但它实际调用的c 库函数是posix_memalign,为的是实现64字节对齐


第1层: av_mallocz


void *av_mallocz(size_t size)

{

void *ptr = av_malloc(size);

if (ptr) memset(ptr, 0, size);

return ptr;

}
av_mallocz 对返回的内存,用0进行了初始化.


第2层: av_buffer_create


用途: 为一个已有的内存data,size 分配一个AVBuffer 结构,以后你用AVBufferRef* 结构去访问它

AVBuffer 结构,40个字节, 是一个带有refcount 和 free函数的管理结构,管理传来的buffer(即data,size)

AVBufferRef结构,24个字节

下面看代码:

调用参数比较多,先要搞清楚意思.

第1,2参数: data,size: 被保护的内存

第3 参数: free: 释放该内存的函数

第4 参数: opaque: 内存释放函数的参数

第5 参数: flags: 标志位

返回值: AVBufferRef指针. 返回的指针结构(24byte)虽小,却能访问到所有的东西.

AVBufferRef *av_buffer_create(uint8_t *data, buffer_size_t size,

void (*free)(void *opaque, uint8_t *data),

void *opaque, int flags)

{

AVBuffer *buf = av_mallocz(sizeof(*buf));

buf->data = data;

buf->size = size;

buf->free = free ? free : av_buffer_default_free;//有free给free,否则给个默认的.

buf->opaque = opaque;

atomic_init(&buf->refcount, 1);

buf->flags = flags;

AVBufferRef *ref = av_mallocz(sizeof(*ref));

ref->buffer = buf;

ref->data = data;

ref->size = size;

return ref;

}

问1: 为什么要包装这么一层?
答2: 这样是为了当数据克隆时,我们只需要clone一下AVBufferRef 结构,才24个字节,
把AVBuffer的 refcount加1, 而其所指向的数据可能很大就不用clone了. 岂不妙哉!

问2:那个free 函数有哪些?

答2:再说.


第3层 av_buffer_alloc


代码:

AVBufferRef *av_buffer_alloc(buffer_size_t size)

{

uint8_t *data = av_malloc(size);

AVBufferRef *ret = av_buffer_create(data, size, av_buffer_default_free, NULL, 0);

return ret;

}
av_buffer_alloc 与 malloc 有什么区别?
前者返回的是AVBufferRef 指针,数据被保护了,而后者返回的直接是数据指针.
原来我们能直接找到总统,现在总统带保镖了.你只能找到保镖,不能直接找到总统了.


第4层: av_buffer_allocz


AVBufferRef *av_buffer_allocz(buffer_size_t size)

{

AVBufferRef *ret = av_buffer_alloc(size);

memset(ret->data, 0, size);

return ret;

}
带z的函数多了一个数据清0的过程.


第5层: pool_alloc_buffer


该函数是有内存池创建一个内存池项,
同时创建一个AVBufferRef 项,ref所指内存数据的大小是由pool->size决定的

内存池项p_entry 是隐含的,透明的,但它与ref指针密切相关.

它返回的是AVBufferRef 指针

代码如下:

static AVBufferRef *pool_alloc_buffer(AVBufferPool *pool)

{

AVBufferRef *b_ref = pool->alloc2 ? pool->alloc2(pool->opaque, pool->size) :
pool->alloc(pool->size); //调用保存的内存池分配函数,默认是av_buffer_alloc

BufferPoolEntry *p_entry = av_mallocz(sizeof(*p_entry));

p_entry->data = b_ref->buffer->data; // entry中的数据元素来源于ref

p_entry->opaque = b_ref->buffer->opaque;

p_entry->free = b_ref->buffer->free;

p_entry->pool = pool;

b_ref->buffer->opaque = p_entry; //ref 中的参数是p_entry地址

b_ref->buffer->free = pool_release_buffer; //修改buffer中的free函数地址

return b_ref;

}

内存池和内存池项的结构我就不copy了.

内存池就是内存池项的链表管理. 它能增加或减少内存池项.有指针指向空闲链表头

内存池项是内存的又一个保镖,它有指针指向数据,同时还有内存释放函数.

关于内存池项对用户是透明的,看不见的. 当我们也应该清楚其内部操作.

用内存池分配的内存,它把buffer->free 改成了pool_release_buffer.
这样当释放内存的时候不是通过 free 返回系统, 而是通过pool_release_buffer 返回给pool
pool 只是把它作为空闲项加入链表,没有归还系统,留给以后分配使用.


第6层: av_buffer_pool_get


AVBufferRef *av_buffer_pool_get(AVBufferPool *pool)

{

AVBufferRef *b_ref;

ff_mutex_lock(&pool->mutex);

BufferPoolEntry *p_entry = pool->pool; //从pool 的空闲项链表取得一项

if (p_entry) {// 如果拿到了, 则创建一个AVBufferRef 来返回,只需分配40+24bytes

b_ref = av_buffer_create(p_entry->data, pool->size, pool_release_buffer, p_entry, 0);

if (b_ref) { //修改pool 的空闲项指针

pool->pool = p_entry->next;

p_entry->next = NULL;

}

} else {

b_ref = pool_alloc_buffer(pool); //pool 没有空闲置项,则分配一项,就是上面的分析过程.

}

ff_mutex_unlock(&pool->mutex);

// pool 的引用计数加1,

if (b_ref)

atomic_fetch_add_explicit(&pool->refcount, 1, memory_order_relaxed);

return b_ref;

}

调用相关函数,使pool引用计数减少,当pool引用计数减到0时,整个pool 会释放掉,所有分配的内存返回系统.


第7层: video_get_buffer


它为AVFrame 分配了内存, 使frame->buf,frame->data 有了数值
视频包含3个平面Y,U,V 所以从3个内存池中申请内存

static int video_get_buffer(AVCodecContext *s, AVFrame *frame)

{

int i;

if (frame->data[0] || frame->data[1] || frame->data[2] || frame->data[3]) {

av_log(s, AV_LOG_ERROR, "frame->data[*]!=NULL in avcodec_default_get_buffer\n");

return -1;

}

//frame->data 是8个指针 unsigned char *[8], 不过一般用3个就够了.

memset(frame->data, 0, sizeof(frame->data));

frame->extended_data = frame->data;

//这里有FramePool的概念,它有4个AVBufferPool 及其它一些参数
//惊叹号!s->internal->pool是一个AVBufferRef

FramePool *fr_pool = (FramePool*)s->internal->pool->data;

for (i = 0; i < 4 && fr_pool->pools[i]; i++) {

frame->linesize[i] = fr_pool->linesize[i];

frame->buf[i] = av_buffer_pool_get(fr_pool->pools[i]); //frame 从缓冲池中得到内存,上面的分析

frame->data[i] = frame->buf[i]->data;

}

for (; i < AV_NUM_DATA_POINTERS; i++) {

frame->data[i] = NULL;

frame->linesize[i] = 0;

}

return 0;

fail:

av_frame_unref(frame);

return AVERROR(ENOMEM);

}
缓冲池由AVCodecContext 来保存! 生命周期是整个数据周期


第8层: avcodec_default_get_buffer2


int avcodec_default_get_buffer2(AVCodecContext *avctx, AVFrame *frame, int flags)

{

int ret;
//该函数的意义?参看补充

if ((ret = update_frame_pool(avctx, frame)) < 0) return ret;

switch (avctx->codec_type) {

case AVMEDIA_TYPE_VIDEO:

return video_get_buffer(avctx, frame); // 这就是我们上面分析的.

case AVMEDIA_TYPE_AUDIO:

return audio_get_buffer(avctx, frame);

default:

return -1;

}

}


第9层 ff_get_buffer


为frame分配内存地址及copy一些属性,属性来源于pkt(发来的数据)及avctx

int ff_get_buffer(AVCodecContext *avctx, AVFrame *frame, int flags)

{

if (frame->width <= 0 || frame->height <= 0) { //从avctx中设置 frame的width,height属性

frame->width = FFMAX(avctx->width, AV_CEIL_RSHIFT(avctx->coded_width, avctx->lowres));

frame->height = FFMAX(avctx->height, AV_CEIL_RSHIFT(avctx->coded_height, avctx->lowres));

override_dimensions = 0;

}

ret = ff_decode_frame_props(avctx, frame); // 给frame设置一些属性

avctx->sw_pix_fmt = avctx->pix_fmt;

ret = avctx->get_buffer2(avctx, frame, flags); //它指向avcodec_default_get_buffer2,就是上面的分析

validate_avframe_allocation(avctx, frame); //检查frame 内存分配是否合法, 简单!

ret = ff_attach_decode_data(frame); //简单,创建了一个FrameDecodeData 对象,作为frame->private_ref

return ret;

}

int ff_decode_frame_props(AVCodecContext *avctx, AVFrame *frame)

{
// 从未解码包中(就是发来的packet数据)copy一些属性

AVPacket *pkt = avctx->internal->last_pkt;

frame->pts = pkt->pts;

frame->pkt_pts = pkt->pts;

frame->pkt_pos = pkt->pos;

frame->pkt_duration = pkt->duration;

frame->pkt_size = pkt->size;

//把pkt的size_data 也copy 过来 ...

...
//从avctx 中copy 一些属性

frame->reordered_opaque = avctx->reordered_opaque;

if (frame->color_primaries == AVCOL_PRI_UNSPECIFIED)

frame->color_primaries = avctx->color_primaries;

if (frame->color_trc == AVCOL_TRC_UNSPECIFIED)

frame->color_trc = avctx->color_trc;

if (frame->colorspace == AVCOL_SPC_UNSPECIFIED)

frame->colorspace = avctx->colorspace;

if (frame->color_range == AVCOL_RANGE_UNSPECIFIED)

frame->color_range = avctx->color_range;

if (frame->chroma_location == AVCHROMA_LOC_UNSPECIFIED)

frame->chroma_location = avctx->chroma_sample_location;

switch (avctx->codec->type) {

case AVMEDIA_TYPE_VIDEO:

frame->format = avctx->pix_fmt;

if (!frame->sample_aspect_ratio.num)

frame->sample_aspect_ratio = avctx->sample_aspect_ratio;

}

break;

case AVMEDIA_TYPE_AUDIO:

if (!frame->sample_rate) frame->sample_rate = avctx->sample_rate;

if (frame->format < 0) frame->format = avctx->sample_fmt;

frame->channels = avctx->channels;

break;

}

return 0;

}


第10层 thread_get_buffer_internal


static int thread_get_buffer_internal(AVCodecContext *avctx, ThreadFrame *f, int flags)

{

#define FF_THREAD_FRAME 1 ///< Decode more than one frame at once

#define FF_THREAD_SLICE 2 ///< Decode more than one part of a single frame at once

if (!(avctx->active_thread_type & FF_THREAD_FRAME)) //active_thread_type 为3

return ff_get_buffer(avctx, f->f, flags); //直接走上面的分析

}


第11层 ff_thread_get_buffer


int ff_thread_get_buffer(AVCodecContext *avctx, ThreadFrame *f, int flags)

{

return thread_get_buffer_internal(avctx, f, flags);

}


补充1: update_frame_pool


分配FramePool 并依据avctx, frame初始化FramePool 的参数

根据frame的宽度,高度得到平面的大小size, 即为pool->size, 创建3个pool

static int update_frame_pool(AVCodecContext *avctx, AVFrame *frame)

{
//先查看是否分配过, 分配过就直接返回了.

FramePool *frame_pool = avctx->internal->pool ?

(FramePool*)avctx->internal->pool->data : NULL;

if (frame_pool && frame_pool->format == frame->format) {

if (avctx->codec_type == AVMEDIA_TYPE_VIDEO &&

frame_pool->width == frame->width && frame_pool->height == frame->height)

return 0;

if (avctx->codec_type == AVMEDIA_TYPE_AUDIO && frame_pool->planes == planes &&

frame_pool->channels == ch && frame->nb_samples == frame_pool->samples)

return 0;

}
//显然它是分配了一个FramePool, 又创建了一个AVBuffer来包围FramePool, 返回了AVBufferRef*

AVBufferRef *buf_ref = frame_pool_alloc();

frame_pool = (FramePool*)buf_ref->data;

switch (avctx->codec_type) {

case AVMEDIA_TYPE_VIDEO: {

int linesize[4];

int w = frame->width; //要注意frame->width的值是怎么得来的,留后续补充.

int h = frame->height;

int unaligned;

ptrdiff_t linesize1[4];

size_t size[4];

avcodec_align_dimensions2(avctx, &w, &h, frame_pool->stride_align);

do { //从w 得到linesize, linesize 是被调整过的width

ret = av_image_fill_linesizes(linesize, avctx->pix_fmt, w);

w += w & ~(w - 1);

unaligned = 0;

for (i = 0; i < 4; i++)

unaligned |= linesize[i] % frame_pool->stride_align[i];

} while (unaligned);

for (i = 0; i < 4; i++)

linesize1[i] = linesize[i];

//根据linesize及高度,得到平面的大小size , YUV 是3个平面, 所以4个空间足够

ret = av_image_fill_plane_sizes(size, avctx->pix_fmt, h, linesize1);

for (i = 0; i < 4; i++) {

frame_pool->linesize[i] = linesize[i]; //保留linesize

if (size[i]) { //按size 来初始化内存池

frame_pool->pools[i] = av_buffer_pool_init(size[i] + 16 + STRIDE_ALIGN - 1 ,

CONFIG_MEMORY_POISONING ?

NULL :

av_buffer_allocz);

}

}

}

frame_pool->format = frame->format; //保留其它参数

frame_pool->width = frame->width;

frame_pool->height = frame->height;

break;

}

case AVMEDIA_TYPE_AUDIO: {

ret = av_samples_get_buffer_size(&frame_pool->linesize[0], ch,

frame->nb_samples, frame->format, 0);

frame_pool->pools[0] = av_buffer_pool_init(frame_pool->linesize[0], NULL);

frame_pool->format = frame->format;

frame_pool->planes = planes;

frame_pool->channels = ch;

frame_pool->samples = frame->nb_samples;

break;

}

default: av_assert0(0);

}

av_buffer_unref(&avctx->internal->pool);

avctx->internal->pool = buf_ref; //重新更新framepool

return 0;

}

相关推荐
岁月小龙10 小时前
如何让ffmpeg运行时从当前目录加载库,而不是从/lib64
ffmpeg·origin·ffprobe·rpath
行者记2 天前
ffmpeg命令——从wireshark包中的rtp包中分离h264
测试工具·ffmpeg·wireshark
EasyCVR2 天前
国标GB28181视频平台EasyCVR私有化视频平台工地防盗视频监控系统方案
运维·科技·ffmpeg·音视频·1024程序员节·监控视频接入
hypoqqq2 天前
使用ffmpeg播放rtsp视频流
ffmpeg
cuijiecheng20182 天前
音视频入门基础:FLV专题(24)——FFmpeg源码中,获取FLV文件视频信息的实现
ffmpeg·音视频
QMCY_jason2 天前
黑豹X2 armbian 编译rkmpp ffmpeg 实现CPU视频转码
ffmpeg
苍天饶过谁?2 天前
SDL基本使用
ffmpeg
HZ355722 天前
ffmpeg视频解码
ffmpeg·音视频
runing_an_min2 天前
windows运行ffmpeg的脚本报错:av_ts2str、av_ts2timestr、av_err2str => E0029 C4576
c++·windows·ffmpeg·e0029
EelBarb2 天前
ffmpeg:视频字幕嵌入(GPU加速)
ffmpeg·音视频