高并发内存池

1.什么是内存池

内存池·动态内存分配与管理技术,对于程序员来说,通常情况下,动态申请内存需要使用new,delete,malloc,free这些API来申请,这样导致的后果是,当程序长时间运行之后,由于程序运行时所申请的内存大小不定,频繁使用将会导致大量的内存碎片,进而降低程序的运行效率问题,减少程序和操作系统的性能。 所以,我们引入了内存池的概念,内存池则是在真正使用内存之前,就向操作系统申请一大块内存留住备用,当程序员动态申请的时候,就向内存池申请内存,当释放内存的时候,就将释放的内存放到内存池里面,再次申请池可以 再取出来使用,并尽量与周边的空闲内存块合并。若内存池不够时,则自动扩大内存池,从操作系统中申请更大的内存池。直到程序结束,将所用内存还给操作系统。

2.内存池的作用

为什么需要内存池

1.解决内存碎片问题:

内存碎片分为外碎片和内碎片,外碎片是频繁地向操作系统申请内存,释放内存,导致内存不连续,内存不连续导致我们虽然有内存但是由于内存小于我们需要的,而导致我们无法使用,内碎片由于我们在动态申请内存的时候,由于内存对齐的原因,导致我们实际申请的内存大于等于我们实际需要的内存,这样就会导致多出来的内存无法使用,造成资源的浪费。为了解决内存碎片问题,就需要用到内存池来解决;

2.解决效率问题:

由于频繁的申请和释放内存,将会导致程序运行下降和操作系统性能下降,这样会减少效率,所以使用池化技术以提高程序的运行效率问题。

3.内存池的设计

1.教科书上的内存分配器:

做一个链表指向空闲内存,分配时就取出一块内存,释放时就还回去一块内存,并做还归并,做好标记好保护,避免二次释放,减小内存碎片。

优点:简单易实现

缺点:分配时搜索合适的内存块效率低,释放回归内存后归并消耗大,实际中不实用

2.定长内存池

即实现一个 FreeList,每个 FreeList 用于分配固定大小的内存块,比如用于分配 32字节对象的固定内存分配器,之类的。每个固定内存分配器里面有两个链表,OpenList 用于存储未分配的空闲对象,CloseList用于存储已分配的内存对象,那么所谓的分配就是从 OpenList 中取出一个对象放到 CloseList 里并且返回给用户,释放又是从 CloseList 移回到 OpenList。分配时如果不够,那么就需要增长 OpenList:申请一个大一点的内存块,切割成比如 64 个相同大小的对象添加到OpenList中。这个固定内存分配器回收的时候,统一把先前向系统申请的内存块全部还给系统。

优点:简单粗暴,分配和释放效率高,解决实际场景下的问题有效。

缺点:应有场景单一,只能解决定长内存问题,另外占着内存没有释放。

比如:

代码实现:http://t.csdnimg.cn/I9qae 定长内存池问题

3.我们的重点目标:实现并发内存池concurrent memory pool

现代很多的开发环境都是多核多线程,在申请内存的场景下,必然存在激烈的锁竞争问题。所以这次我们实现的内存池需要考虑以下几方面的问题:

  • 内存碎片为题
  • 性能问题
  • 多线程下锁竞争问题

concurrent memory pool主要由以下3个部分构成:

1.ThreadCache:线程缓存是每个线程独有的,用于小于64k的内存的分配,所以不用加锁,每个线程独享一个ThreadCache,这是并发线程池高效的地方,本质是由哈希映射的链表实现。

2.CentralCache:中心缓存是所有线程所共享的,所以需要加锁,ThreadCache是按需从CentralCache中获取的对象。CentralCache周期性的回收ThreadCache中的对象,避免一个线程占用了太多的内存,而其他线程的内存吃紧。达到内存分配在多个线程中更均衡的按需调度的目的。CentralCache是存在竞争的,所以从这里取内存对象是需要加锁,不过一般情况下在这里取内存对象的效率非常高,所以这里竞争不会很激烈。

3.PageCache:页缓存是在CentralCache缓存上面的一层缓存,存储的内存是以页为单位存

储及分配的,CentralCache没有内存对象时,从PageCache分配出一定数量的page,并切

割成定长大小的小块内存,分配给CentralCache。PageCache会回收CentralCache满足条

件的span对象,并且合并相邻的页,组成更大的页,缓解内存碎片的问题.

比如这样:

这就是内存池的简单模型。

具体细节请看代码实现。

4.内存池的实现

ThreadCache的实现

由于ThreadCache是一个有哈希映射的链表,所以可以将其设计为一个命名为ThreadCache的类:

cpp 复制代码
class ThreadCache
{
public:
private:
};

由于ThreadCacheTjreadCache的设计需要实现一个链表,可以可以放在一个公共头文件中,使其它部分也可以访问。

这个类存放的是ThreadCache单个对象,设计为:

cpp 复制代码
static void*& NextObj(void* obj)//保证在其他文件不可见
{
	return *(void**)obj;
}

class FreeList
{
public:
void Push(void* obj)
{
	//void* _FreeList=NextObj(obj);
	NextObj(obj) = _FreeList;
	_FreeList = obj;
	_size++;
}
void* Pop()
{
	void* obj = _FreeList;
	_FreeList = NextObj(obj);
	_size--;
	return obj;
}
private:
	void* _FreeList = nullptr;
}

FreeList先放入插入函数和删除函数,以后的内容到后面实现。由于需要访问下一个元素,所以直接实现一个函数,实现访问下一个元素。

对于每个单个小对象先来说,初始化为空。

对于ThreadCache来说,需要实现的函数接口为,申请内存,释放内存,当ThreadCache内存不够使,向CentralCache中申请。由于ThreadCache是没有锁的,且为了保证效率,我们使用thread local storage保存每个线程本地的ThreadCache的指针,这样大

部分情况下申请释放内存是不需要锁的。为了防止出现在多个文件中出现重定义现象,我们采取定义和声明分离来实现。

cpp 复制代码
class ThreadCache
{
public:
	void* Alloc(size_t size);//申请内存
	void Deallocate(void* ptr, size_t size);//释放内存
	void* FetchFromCentralCache(size_t bytes, size_t align);//向CentralCache申请

private:
	FreeList _freeLists[NFREE_LIST];//哪个桶
};

static _declspec(thread) ThreadCache* pTLSThreadCache = nullptr;//每个ThreadCache都有一个线程,没
cpp 复制代码
//申请内存
void* ThreadCache::Alloc(size_t size)
{
	assert(size <= MAX_BYTES);
	size_t alignSize = SizeClass::RoundUp(size);//有效字节数
	size_t index = SizeClass::Index(size);//哪个桶
	//assert(alignSize <= MAX_BYTES);
	assert(index <= NFREE_LIST);

	if (!_freeLists[index].Empty())
		return _freeLists[index].Pop();//有内存
	else
		return ThreadCache::FetchFromCentralCache(index, alignSize);//从cettercache获取
}
//释放内存
void ThreadCache::Deallocate(void* ptr, size_t size)
{
	assert(ptr);
	assert(size <= MAX_BYTES);
	size_t index = SizeClass::Index(size);
	_freeLists[index].Push(ptr);//size<最大size
	

	if (_freeLists[index].Size() >= _freeLists[index].MaxSize())
	{
		ListTooLong(_freeLists[index], size);
	}
}

申请内存:

首先需要确定申请的内存需要小于256Kb的大小,大于256KB,我们后续解决。

申请内存需惊醒内存对齐,保证申请的内存达到最大利用率。

cpp 复制代码
//static size_t _RoundUp(size_t bytes, size_t alignNum)//简单计算
//{
//	size_t _size = bytes;
//	if (bytes % alignNum == 0)
//	{
//		return _size;
//	}
//	else
//	{
//		_size = (bytes / alignNum + 1) * 8;
//	}
//}
static size_t _RoundUp(size_t bytes, size_t alignNum)//高级计算
{
	return ((bytes + alignNum - 1) & ~(alignNum - 1));
}
//计算最小对齐数
static size_t RoundUp(size_t size)
{
	if (size <= 128)
	{
		return _RoundUp(size, 8);
	}
	else if (size <= 1024)
	{
		return _RoundUp(size, 16);
	}
	else if (size <= 8 * 1024)
	{
		return _RoundUp(size, 128);
	}
	else if (size <= 64 * 1024)
	{
		return _RoundUp(size, 1024);
	}
	else if (size <= 256 * 1024)
	{
		return _RoundUp(size, 8 * 1024);
	}
	else if(size> MAX_BYTES)
	{
		return _RoundUp(size, 1 << PAGE_SHIFT);
	}
	else
	{
		assert(false);
		return -1;
	}
}

对于这部分的代码,我们根据申请的不同字节数来确定,不同的对齐数,是资源利用率最大化。计算字节对齐数,可以有普通的方法和利用位运算的方法,位运算的方法分析:

对于上述位运算,我们以10字节按8字节对齐为例进行分析:

8 − 1 = 7 8-1=7 8−1=7,7就是一个低三位为1其余位为0的二进制序列,我们将10与7相加,相当于将10字节当中不够8字节的剩余字节数补上了。然后我们再将该值与7按位取反后的值进行与运算,而7按位取反后是一个低三位为0其余位为1的二进制序列,该操作进行后相当于屏蔽了该值的低三位而该值的其余位保持不变,此时得到的值就是10字节按8字节对齐后的值,即16字节。

然后我们需要确定在那个桶里面,因为ThreadCache是基于哈希映射来实现的,就像这样,

所以我们确定在那个桶里面,具体实现如下:

cpp 复制代码
static size_t _Index(size_t bytes, size_t align_shift)
{
	return ((bytes + (1 << align_shift) - 1) >> align_shift) - 1;
}
//在哪个桶里面
static size_t Index(size_t bytes)
{
	assert(bytes <= MAX_BYTES);

	static int group_array[4] = { 16, 56, 56, 56 };
	if (bytes <= 128)
	{
		return _Index(bytes, 3);
	}
	else if (bytes <= 1024)
	{
		return _Index(bytes - 128, 4) + group_array[0];
	}
	else if (bytes <= 8 * 1024)
	{
		return _Index(bytes - 1024, 7) + group_array[1] + group_array[0];
	}
	else if (bytes <= 64 * 1024)
	{
		return _Index(bytes - 8 * 1024, 10) + group_array[2] + group_array[1] + group_array[0];
	}
	else if (bytes <= 256 * 1024)
	{
		return _Index(bytes - 64 * 1024, 13) + group_array[3] + group_array[2] + group_array[1] + group_array[0];
	}
	else
	{
		assert(false);
		return -1;
	}

}

这个思路和上面的差不多,同学们可以自行探索下。确定在哪个桶之后,可以申请内存,保证这个桶里面不是空的,如果没有内存,则需要的下一层中申请,也就是CentralCache中。

如果内存不够,则需要去CentralCache中去申请,也即FetchFromCentralCache()函数,

cpp 复制代码
void* ThreadCache::FetchFromCentralCache(size_t index, size_t size)
{
	//慢增长调节算法
	size_t batchNum = min(_freeLists[index].MaxSize(), SizeClass::NumMoveSize(size));
	if (batchNum == _freeLists[index].MaxSize())
	{
		batchNum += 1;
	}
	void* start = nullptr;
	void* end = nullptr;
	//实际大小
	size_t actually = CentreCache::GetInstance()->FetchRangeObj(start, end, batchNum, size);
	assert(actually > 0);
	if (actually == 1)//直接返回
	{
		assert(start == end);
		return start;
	}
	else//一段范围
	{
		_freeLists[index].PushRange(NextObj(start), end,actually);
		return start;
	}
}

对于FetchFromCentralCache()函数来说,需要确定申请的大小,所以为了减小内存的浪费,我们采用慢增长调节算法,当thread cache向central cache申请内存时,如果central cache给的太少,那么thread cache在短时间内用完了又会来申请;但如果一次性给的太多了,可能thread cache用不完也就浪费了。但如果给少了不够用,需要频繁得去向CenTRALCache中申请内存,降低性能,所以我们需要再次写一个函数,确定申请的大小。

通过确定对齐数的大小,用来申请,需要的内存,最小为2,最大为512,然后计算实际大小,以为CentralCache可能没有那么大的内存,需要我们进行处理,如果申请额的内存正好为1,即start等于end,直接返回start,如果大于一,则需要将剩余的同挂到相同的桶的下面。方便下次申请。这样就需要再确定一个函数,即插入一段范围的区间:PushRange函数:

n为实际申请的大小数。_size为当前有多少内存,方便以后统计使用。

到CenterCache中获取新内存,就需要再设计出一个类,用以保存类成员及类的成员函数,由于CentralCache是每个线程都共享的,所以我们把它设计为单列模式,即每次只允许创建一个对象,具体看代码

cpp 复制代码
// 单例模式
class CentreCache
{
public:
	static CentreCache* GetInstance()
	{
		return &_sInst;
	}

	// 获取一个非空的span
	span* GetOneSpan(spanlist& list, size_t byte_size);
	// 从中心缓存获取一定数量的对象给thread cache
	size_t FetchRangeObj(void*& start, void*& end, size_t batchNum, size_t size);
	//释放内存
	void ReleaseListToSpans(void*& start, size_t size);
private:
	spanlist _spanLists[NFREE_LIST];
private:
	CentreCache()
	{}

	CentreCache(const CentreCache&) = delete;

	static CentreCache _sInst;
};

CenteralCache也是一个由哈希映射的一个链表结构,所以我们把设计为带头双向循环链表,我们就需要再设计出一个类,用来存储;链表结构:

cpp 复制代码
struct span
{

	PAGE_ID _pageId = 0;//起始页号
	size_t _num = 0;//页得数量

	span* _prev = nullptr;//头
	span* _next = nullptr;//尾

	size_t _objSize = 0;//切好的小对象的大小
	size_t _useCount = 0; // 切好小块内存,被分配给thread cache的计数
	void* _freeList = nullptr;// 切好的小块内存的自由链表

	bool _isUse = false;//是否正在使用
};
class spanlist
{
public:
	spanlist()
	{
		_head = new span;
		_head->_next = _head;
		_head->_prev = _head;
	}
	/*~spanlist()
	{
		while (_head)
		{
			_head = _head->_next;
			delete _head;
		}
	}*/
	span* Begin()
	{
		return _head->_next;
	}
	span* End()
	{
		return _head;
	}
	bool Empty()
	{
		return _head->_next == _head;
	}
	void pushFront(span* newpos)
	{
		assert(newpos);
		Insert(Begin(), newpos);
	}
	span* popFront()
	{
		assert(_head->_next);
		span* it = Begin();
		Erase(Begin());
		return it;
	}
	//插入
	void Insert(span* pos, span* newpos)//newpos插入节点
	{
		assert(pos);
		assert(newpos);//判断
		span* prev = pos->_prev;
		//插入
		prev->_next = newpos;
		newpos->_prev = prev;
		newpos->_next = pos;
		pos->_prev = newpos;
	}
	//删除
	void Erase(span* pos)
	{
		assert(pos);
		assert(pos != _head);
		span* prev = pos->_prev;
		span* next = pos->_next;

		prev->_next = next;
		next->_prev = prev;
	}

private:
	span* _head;
public:
	std::mutex _mtx; // 桶锁
};

由于CentrealCache只能有一个线程来访问,所以需要带一把桶锁,防止锁竞争问题。

下面是得到一段范围的内存:

cpp 复制代码
size_t CentreCache::FetchRangeObj(void*& start, void*& end, size_t batchNum, size_t size)
{
	size_t index = SizeClass::Index(size);
	_spanLists[index]._mtx.lock();

	span* sspan = GetOneSpan(_spanLists[index], size);
	assert(sspan);
	assert(sspan->_freeList);

	// 从span中获取batchNum个对象
	// 如果不够batchNum个,有多少拿多少
	start = sspan->_freeList;
	end = start;
	size_t i = 0;
	size_t actualNum = 1;
	while (i < batchNum - 1 && NextObj(end) != nullptr)
	{
		end = NextObj(end);
		++i;
		++actualNum;
	}
	sspan->_freeList = NextObj(end);
	NextObj(end) = nullptr;
	sspan->_useCount += actualNum;

	_spanLists[index]._mtx.unlock();

	return actualNum;
}

得到一段范围的内存,就需要GetOneSpan()函数来执行这段代码,我们先来分析FetchRangeObj()函数接口,得到一块span之后,确定是否为空,如果为空,则申请失败,然后确定开始位置和结束为止,确定其申请的个数,方便下次操作,然后返回其实际数值。

cpp 复制代码
span* CentreCache::GetOneSpan(spanlist& list, size_t size)
{
	span* it = list.Begin();
	while (it != list.End())
	{
		if (it->_freeList != nullptr)
		{
			return it;
		}
		else it = it->_next;
	}
	//说明没有span,到PageCache申请
	list._mtx.unlock();//解锁

	PageCache::GetInstance()->_pageMtx.lock();
	span* sspan = PageCache::GetInstance()->NewSpan(SizeClass::NumMovePage(size));
	sspan->_isUse = true;
	sspan->_objSize = size;
	PageCache::GetInstance()->_pageMtx.unlock();
	// 对获取span进行切分,不需要加锁,因为这会其他线程访问不到这个span

	// 计算span的大块内存的起始地址和大块内存的大小(字节数)
	// 计算span的大块内存的起始地址和大块内存的大小(字节数)
	char* start = (char*)(sspan->_pageId << PAGE_SHIFT);
	size_t bytes = sspan->_num << PAGE_SHIFT;
	char* end = start + bytes;

	// 把大块内存切成自由链表链接起来
	// 1、先切一块下来去做头,方便尾插
	sspan->_freeList = start;
	start += size;
	void* tail = sspan->_freeList;
	int i = 1;
	while (start < end)
	{
		++i;
		NextObj(tail) = start;
		tail = NextObj(tail); // tail = start;
		start += size;
	}

	// 切好span以后,需要把span挂到桶里面去的时候,再加锁
	list._mtx.lock();
	list.pushFront(sspan);

	return sspan;
}

GetOneSpan得到一块新span,CenteralCache中可能没有span,所以我们需要去判断是否有足够的内存去使用,如果没有,就需要到PageCacheh中申请,如果足够,则直接返回span.到PageCache中申请足够的内存之后,需要 计算span的大块内存的起始地址和大块内存的大小(字节数),start为开始时的起始地址,页的起始地址左移13位计算出页的起始地址,页的个数左移13位计算出页的个数,结束位置为开始的地址加上页得个数。

然后把大块内存切成自由链表连接起来,先切头结点,方便尾插,然后再挂到桶里面去,再加锁,防止锁竞争。

PageCache申请:PageCache的结构和CentralCache的结构是一样的,在次不做多余解释

cpp 复制代码
class PageCache
{
public:
	static PageCache* GetInstance()
	{
		return &_sInst;
	}

	//得到一个span
	span* NewSpan(size_t k);
	//找到对应的span
	span* MapObjectToSpan(void* start);

	void ReleaseSpanToPageCache(span* span);//合并大页
	std::mutex _pageMtx;
private:
	spanlist _spanLists[NPAGES];
	ObjectPool<span> _spanPool;
	PageCache()
	{}
	PageCache(const PageCache&) = delete;
	//记录页号所对应的span
	std::unordered_map<PAGE_ID, span*> _idspanMap;

	static PageCache _sInst;
};

得到一个NewSpan():

cpp 复制代码
span* PageCache::NewSpan(size_t k)
{
	assert(k > 0 );
	
	// 先检查第k个桶里面有没有span
	if (!_spanLists[k].Empty())
	{
		return _spanLists->popFront();
	}

	// 检查一下后面的桶里面有没有span,如果有可以把他它进行切分
	for (size_t i = k + 1; i < NPAGES; ++i)
	{
		if (!_spanLists[i].Empty())
		{
			span* nSpan = _spanLists[i].popFront();
			span* kSpan = new span;

			// 在nSpan的头部切一个k页下来
			// k页span返回
			// nSpan再挂到对应映射的位置
			kSpan->_pageId = nSpan->_pageId;
			kSpan->_num = k;

			nSpan->_pageId += k;
			nSpan->_num -= k;

			_spanLists[nSpan->_num].pushFront(nSpan);
			for (PAGE_ID i = 0; i < kSpan->_num; ++i)
			{
				_idspanMap[kSpan->_pageId + i] = kSpan;
			}
			return kSpan;
		}
	}

	// 走到这个位置就说明后面没有大页的span了
	// 这时就去找堆要一个128页的span
	span* bigSpan = new span;
	void* ptr = SystemAlloc(NPAGES - 1);
	bigSpan->_pageId = (PAGE_ID)ptr >> PAGE_SHIFT;
	bigSpan->_num = NPAGES - 1;

	_spanLists[bigSpan->_num].pushFront(bigSpan);

	return NewSpan(k);
}

对于NewSpan()函数来说,如果PageCache当前的第K个桶里面有内存,则直接使用第K个桶里面的内存,如果没有,则一个一个遍历,直到找到不是空的那个桶里面,然后通过new来new一个空间,找到k个空间,拿去使用,然后多余的内存挂到第n-k号桶里面,然后返回找到的span,如果没有,则直接去堆上申请。

申请内存完成之后需要释放内存,先说ThreadCache的内存释放,如果ThreadCache所释放的空间小于最大内存数量,则直接释放到ThreadCache中,如果多于最大数量,则调用下一层CentrealCache,通过CentralCache释放,

cpp 复制代码
void ThreadCache::Deallocate(void* ptr, size_t size)
{
	assert(ptr);
	assert(size <= MAX_BYTES);
	size_t index = SizeClass::Index(size);
	_freeLists[index].Push(ptr);//size<最大size
	

	if (_freeLists[index].Size() >= _freeLists[index].MaxSize())
	{
		ListTooLong(_freeLists[index], size);
	}
}
void ThreadCache::ListTooLong(FreeList& list, size_t size)
{
	void* start = nullptr;
	void* end = nullptr;
	list.PopRange(start, end, list.MaxSize());

	CentreCache::GetInstance()->ReleaseListToSpans(start, size);

}

释放内存,ThreadCache和CenteralCache释放

cpp 复制代码
void CentreCache::ReleaseListToSpans(void*& start, size_t size)
{
	size_t index = SizeClass::Index(size);//哪个桶
	_spanLists[index]._mtx.lock();//加锁
	//还内存
	while (start)
	{
		void* next = NextObj(start);
		span* sspan=PageCache::GetInstance()->MapObjectToSpan(start);//找页号
		NextObj(start) = sspan->_freeList;
		sspan->_freeList = start;
		sspan->_useCount--;

		if (sspan->_useCount == 0)//还回来完了
		{
			_spanLists[index].Erase(sspan);
			sspan->_freeList = nullptr;
			sspan->_next = nullptr;
			sspan->_prev = nullptr;
			// 释放span给pagecache时,使用page cache的锁就可以了
			// 这时把桶锁解掉

			_spanLists[index]._mtx.unlock();

			PageCache::GetInstance()->_pageMtx.lock();
			PageCache::GetInstance()->ReleaseSpanToPageCache(sspan);
			PageCache::GetInstance()->_pageMtx.unlock();
		}
		start = next;
	}
	_spanLists[index]._mtx.unlock();
}

最后就是如果CenterCache中所使用的内存减到0为止,就需要向PageCache中释放,PageCache的内存释放需要合并,通过向前和向后合并,完成内存的释放。

cpp 复制代码
void PageCache::ReleaseSpanToPageCache(span* span)
{
	if (span->_num > NPAGES - 1)
	{
		void* ptr = (void*)(span->_pageId << PAGE_SHIFT);
		SystemFree(ptr);
		//delete span;
		_spanPool.Delete(span);

		return;
	}

	//对span前后页进行合并
	while (true)
	{
		PAGE_ID previd = span->_pageId - 1;
		auto pret = _idspanMap.find(previd);
		//是否存在
		if (pret == _idspanMap.end()) break;
		
		// 前面相邻页的span在使用,不合并了
		auto prevspan=pret->second;
		if (prevspan->_isUse) break;
		
		if (prevspan->_num + span->_num > NPAGES - 1) break;
		
		span->_pageId = prevspan->_pageId;//前合并
		span->_num += prevspan->_num;
		_spanLists[prevspan->_num].Erase(prevspan);//删除
		_spanPool.Delete(prevspan);
	}
	//后合并
	while (true)
	{
		PAGE_ID nextId = span->_pageId + span->_num;
		auto ret = _idspanMap.find(nextId);

		if (ret == _idspanMap.end()) break;
		
		auto nextspan = ret->second;
		if (nextspan->_isUse == true) break;
		if (nextspan->_num + span->_num > NPAGES - 1) break;

		//合并
		//span->_pageId = nextspan->_pageId;
		span->_num += nextspan->_num;
		_spanLists[nextspan->_num].Erase(nextspan);
		//delete nextspan;
		_spanPool.Delete(nextspan);
	}
	_spanLists[span->_num].pushFront(span);
	span->_isUse = false;
	//恢复
	_idspanMap[span->_pageId] = span;
	_idspanMap[span->_pageId + span->_num - 1] = span;

}

4.结尾

对于大块内存来说,如果申请的内存大于256kb,则需要直接去堆上申请,但是如果直接去堆上申请,则依然会导致内存碎片的产生,所以我们采用定长内存池的方法去向堆中申请,这样就可以直接避免直接new和delete而产生的内存碎片问题,减少外内存问题的产生,另外,内碎片是无法解决的,只能去减小内碎片的问题,不能直接去解决·。当然了·,如果释放内存大于256KB,也是通过定长内存池去释放的,提高程序的性能问题。

另外在不同平台下,需要有不同的解决方案,这就需要条件编译来解决问题,本次项目主要在windows下的32位平台下解决问题,完整代码请查看该网址:Text .MemoryPool/Text .MemoryPool · 一页纸鸢/C-C++项目 - 码云 - 开源中国 (gitee.com)

相关推荐
ggs_and_ddu2 小时前
Android--java实现手机亮度控制
android·java·智能手机
zhangphil8 小时前
Android绘图Path基于LinearGradient线性动画渐变,Kotlin(2)
android·kotlin
watl09 小时前
【Android】unzip aar删除冲突classes再zip
android·linux·运维
键盘上的蚂蚁-9 小时前
PHP爬虫类的并发与多线程处理技巧
android
喜欢猪猪10 小时前
Java技术专家视角解读:SQL优化与批处理在大数据处理中的应用及原理
android·python·adb
JasonYin~11 小时前
HarmonyOS NEXT 实战之元服务:静态案例效果---手机查看电量
android·华为·harmonyos
zhangphil11 小时前
Android adb查看某个进程的总线程数
android·adb
抛空12 小时前
Android14 - SystemServer进程的启动与工作流程分析
android
Gerry_Liang13 小时前
记一次 Android 高内存排查
android·性能优化·内存泄露·mat
天天打码15 小时前
ThinkPHP项目如何关闭runtime下Log日志文件记录
android·java·javascript