当前位置: 首页 > article >正文

C++高并发内存池:内存池调优与测试

前面我们已经完成了三种Cache的设计。本期我们就来调整一下内存池相关的设计问题相关代码在我的个人gitee高并发内存池: 个人学习的项目——高并发内存池目录对于大于256KB的内存申请释放释放对象优化配备内存池申请变量多线程下与malloc的性能测试对比对于大于256KB的内存申请释放前面我们已经讲解对于小于256KB的内存池而言它会通过我们前面设计的三重Cache申请资源。但是实际中并不总是申请小于256KB的内存。那么对于大于256KB的内存我们怎么处理呢前面我们以8KB为一页那么我们就来分类讨论一下设申请size32页size256页的时候可以 去找PageCache申请size256页的时候就要去系统堆申请Common.h#pragma once #includeMemoryAllocator.h #include iostream #include vector #includealgorithm #include cstdlib #includestdexcept #includecassert #includethread #includemutex #includememory #include stddef.h // 跨平台定义 size_t必须包含 #ifdef _WIN32 // Windows 平台VirtualAlloc 需要 windows.h // 同时定义 NOMINMAX 避免与 std::min 冲突若后续使用 #ifndef NOMINMAX #define NOMINMAX #endif #include windows.h #else // Linux 平台mmap、sysconf 需要以下头文件 #include sys/mman.h // mmap, MAP_FAILED, PROT_READ, PROT_WRITE, MAP_PRIVATE, MAP_ANONYMOUS #include unistd.h // sysconf, _SC_PAGESIZE #endif using std::cout; using std::endl; using std::vector; //内存池可申请的最大的内存——256KB static const int MAX_SIZE 256 * 1024; static const int NFRESSLISTS 208; static const size_t NPAGES 129; static const size_t PAGE_SHIFT 13; // 跨平台类型定义PageID_ // 适用Windows (32/64位) Linux (32/64位) // 1. 64 位 Windows 系统 #if defined(_WIN64) typedef unsigned long long PageID; // 2. 32 位 Windows 系统 #elif defined(_WIN32) typedef size_t PageID; // 3. Linux 系统自动适配 32/64 位 #elif defined(__linux__) typedef size_t PageID; // 4. 不支持的平台报错提示 #else #error 当前仅支持 Windows 和 Linux 系统 #endif //给一个对象取前4/8字节 static inline void* NextObject(void* object) { return *(void**)object; } //管理好切分的小对象的链表 class FreeList { private: void* freelist_nullptr; size_t maxSize_1; size_t size_ 0; public: void Push(void* object) { //头插 /*if (object nullptr) { throw 申请的对象内存为空; }*/ assert(object); NextObject(object) freelist_; freelist_ object; size_; } void PushRange(void*start,void* end,size_t n) { (void)end; // 标记未使用参数消除警告 NextObject(start) freelist_; freelist_ start; size_ n; } void* Pop() { //头删 /*if (freelist_ nullptr) { throw 内存链表为空; }*/ assert(freelist_); void* object freelist_; freelist_ NextObject(object); --size_; return object; } void PopRange(void* start, void* end, size_t n) { assert(nsize_); start freelist_; end start; for (size_t i 0; i n - 1; i) { end NextObject(end); } freelist_ NextObject(end); NextObject(end) nullptr; size_ - n; } //判断是否为空 bool Empty() { return freelist_ nullptr; } size_t MaxSize() { return maxSize_; } size_t size() { return size_; } }; //对齐映射规则 //以8字节对齐最合适——因为64系统下一个指针是8个字节导致无法储存指针进而挂接在链表上 class Alignment { // 整体控制在最多10%左右的内碎片浪费 // [1,128] 8byte对齐 freelist[0,16) // [1281,1024] 16byte对齐 freelist[16,72) // [10241,8*1024] 128byte对齐 freelist[72,128) // [8*10241,64*1024] 1024byte对齐 freelist[128,184) // [64*10241,256*1024] 8*1024byte对齐 freelist[184,208) private: //方式二位运算 //static防止多次定义 constexpr编译期计算 inline建议编译器编译期内联 static constexpr inline size_t _RoundUP(size_t size, size_t Align) { return (size Align - 1) ~(Align - 1); //比如size5则二进制为00000101Align为8则Align - 1为00000111 // size Align - 1为00001100即12 //~为按位取反 ~(Align - 1)为11111000 //为按位与当对应位数均为1时方为1 //0000110011111000 //00001100 //11111000 //00001000,为8 } public: //频繁调用的小函数常见写法 static constexpr inline size_t RoundUP(size_t size) { if (size 128)//128B { return _RoundUP(size, 8); } else if (size 1024)//1KB { return _RoundUP(size, 16); } else if (size 8 * 1024)//8KB { return _RoundUP(size, 128); } else if (size 64 * 1024)//64KB { return _RoundUP(size, 1024); } else if (size 256 * 1024)//256KB { return _RoundUP(size, 8 * 1024); } //添加了额外的处理 else { return _RoundUP(size, 1 PAGE_SHIFT); } } //计算映射到哪个桶内的自由链表 //这里除法计算的都是2的幂数现代主流编译器MSVC、GCC、Clang会将其转化为位运算 static constexpr inline size_t Index(size_t size) { size_t aligned RoundUP(size); // 先对齐可能抛出异常 if (aligned 128) // 8字节对齐区间 [8, 128] { // 桶索引8→0, 16→1, ..., 128→15 return aligned / 8 - 1; } else if (aligned 1024) // 16字节对齐区间 [144, 1024] { // 起始144对应桶16步长16 return (aligned - 144) / 16 16; } else if (aligned 8 * 1024) // 128字节对齐区间 [1152, 8192] { // 起始1152对应桶72步长128 return (aligned - 1152) / 128 72; } else if (aligned 64 * 1024) // 1024字节对齐区间 [9216, 65536] { // 起始9216对应桶128步长1024 return (aligned - 9216) / 1024 128; } else if (aligned 256 * 1024) // 8*1024字节对齐区间 [73728, 262144] { // 起始73728对应桶184步长8192 return (aligned - 73728) / (8 * 1024) 184; } else // 理论上不会到达这里因为 RoundUP 已经对过大 size 抛异常 { throw std::runtime_error(申请内存过大); } } // 一次thread cache从中心缓存获取多少个 static size_t NumMoveSize(size_t size) { assert(size 0); // [2, 512], 一次批量移动多少个对象的(慢启动)上限值 // 小对象一次批量上限高 // 小对象一次批量上限低 int num MAX_SIZE / size; if (num 2) num 2; if (num 512) num 512; return num; } // 计算一次向系统获取几个页 // 单个对象 8byte // ... // 单个对象 256KB static size_t NumMovePage(size_t size) { size_t num NumMoveSize(size); size_t npage num * size; npage PAGE_SHIFT; if (npage 0) npage 1; return npage; } }; //Span用来管理多个连续页的大块内存跨度调度结构 //CentralCache和PageCache都需要调用 struct Span { PageID PageNum0; //页数 size_t n_0; //多个大块内存的起始页的页号 //双向链表 Span* prev_nullptr; Span* next_nullptr; void* freeList_nullptr;//切出来小内存的自由链表 size_t IsUseCount_0; //被切出去的内存分配给ThreadCache计数 bool IsUse false; //是否被使用 size_t ObjectSize0; //对象数量 bool isLargeMemory false; // 标记是否为大内存块256KB void* systemMemoryPtr nullptr; // 系统分配的内存指针仅用于大内存块 }; //带头双向循环链表 class SpanList { private: std::unique_ptrSpan head_; // 头节点由 unique_ptr 独占管理 //多线程访问同一个桶会形成竞争导致变慢访问各自的桶即使是加锁也不会变慢 public: std::mutex mtx_; SpanList() : head_(std::make_uniqueSpan()) { head_-prev_ head_.get(); head_-next_ head_.get(); } Span* Begin() { return head_-next_; } Span* End() { return head_-prev_; } void PushFront(Span* span) { Insert(Begin(), span); } Span* PopFront() { Span* target head_-next_; Erase(target); return target; } bool Empty() { return head_-next_ head_.get(); } // 插入将 newSpan 插入到 pos 之前pos 不能为 nullptr void Insert(Span* pos, Span* newSpan) { assert(pos); assert(newSpan); // 连接前后节点 Span* prev pos-prev_; prev-next_ newSpan; newSpan-prev_ prev; newSpan-next_ pos; pos-prev_ newSpan; // newSpan 的所有权已转移给链表由链表负责析构时释放 } // 删除从链表中移除 pos 指向的节点不能是头节点 void Erase(Span* pos) { assert(pos); // 确保不删除头节点 if (pos head_.get()) { return; // 头节点由 unique_ptr 管理不能删除 } // 从链表中摘除 pos-prev_-next_ pos-next_; pos-next_-prev_ pos-prev_; // 重置指针避免悬空指针 pos-prev_ nullptr; pos-next_ nullptr; } // 析构函数释放所有非头节点 ~SpanList() { Span* cur head_-next_; while (cur ! head_.get()) { Span* next cur-next_; delete cur; // 释放每个普通节点 cur next; } // head_ 由 unique_ptr 自动释放无需手动处理 } };MemoryAlloc.h// File: MemoryAllocator.h #pragma once #include cstddef #include stdexcept #include new #ifdef _WIN32 #include windows.h #else #include sys/mman.h #include unistd.h #endif // 默认页大小 4KB static const size_t PAGE_SIZE 4096; // 112 // 按页申请内存kpage页数 inline static void* SystemAlloc(size_t kpage) { size_t size kpage * PAGE_SIZE; #ifdef _WIN32 void* ptr VirtualAlloc(nullptr, size, MEM_COMMIT | MEM_RESERVE, PAGE_READWRITE); #else void* ptr mmap(nullptr, size, PROT_READ | PROT_WRITE, MAP_PRIVATE | MAP_ANONYMOUS, -1, 0); if (ptr MAP_FAILED) ptr nullptr; #endif if (!ptr) throw std::bad_alloc(); return ptr; } inline static void SystemFree(void* ptr) { if (!ptr) return; #ifdef _WIN32 if (!VirtualFree(ptr, 0, MEM_RELEASE)) { throw std::runtime_error(VirtualFree failed); } #else // 在Linux下我们需要知道内存大小才能正确释放 // 这里使用一个简化的实现假设ptr是通过mmap分配的 // 更健壮的实现需要记录分配的大小信息 if (munmap(ptr, 0) -1) { throw std::runtime_error(munmap failed); } #endif }ThreadCache.cpp#define _CRT_SECURE_NO_WARNINGS #include ThreadCache.h #includeCentralCache.h // 跨平台min函数包装器避免Windows.h的宏冲突 namespace PlatformUtils { templatetypename T inline const T Min(const T a, const T b) { return (a b) ? a : b; } } // 定义 thread_local 变量每个线程独立 thread_local ThreadCache* pTLSThreadCache nullptr; //申请资源 void* ThreadCache::Allocator(size_t size) { assert(size MAX_SIZE); size_t AlignSize Alignment::RoundUP(size); size_t index Alignment::Index(size); if (!freelist_[index].Empty()) return freelist_[index].Pop(); else return FetchFromCentralCache(index, AlignSize); } //释放资源 void ThreadCache::Deallocator(void* ptr, size_t size) { assert(ptr); assert(size MAX_SIZE); size_t index Alignment::Index(size); freelist_[index].Push(ptr); //链表长度大于一次批量申请的内存 if (freelist_[index].size() freelist_[index].MaxSize()) { ListTooLong(freelist_[index], size); } } //从CentralCache申请资源 void* ThreadCache::FetchFromCentralCache(size_t index, size_t size) { //满开始反馈调节算法 // 1、最开始不会一次向central cache一次批量要太多因为要太多了可能用不完 // 2、如果你不要这个size大小内存需求那么batchNum就会不断增长直到上限 // 3、size越大一次要的BatchNum越小 // 4、size越小一次要得BatchNum越大 size_t BatchNum PlatformUtils::Min(freelist_[index].MaxSize(), Alignment::NumMoveSize(size)); void* start nullptr; void* end nullptr; size_t actualNum CentralCache::Instance()-FetchRangeObj(start, end, BatchNum, size); assert(actualNum 0); if (actualNum 1) { assert(start end); return start; } else { freelist_[index].PushRange(NextObject(start), end, actualNum-1); return start; } if (BatchNum freelist_[index].MaxSize()) { freelist_[index].MaxSize() 1; } return nullptr; } void ThreadCache::ListTooLong(FreeList list, size_t size) { void* start nullptr; void* end nullptr; list.PopRange(start, end, list.MaxSize()); CentralCache::Instance()-ReleaseListToSpans(start, size); }释放对象优化Common.h//Span用来管理多个连续页的大块内存跨度调度结构 //CentralCache和PageCache都需要调用 struct Span { PageID PageNum0; //页数 size_t n_0; //多个大块内存的起始页的页号 //双向链表 Span* prev_nullptr; Span* next_nullptr; void* freeList_nullptr;//切出来小内存的自由链表 size_t IsUseCount_0; //被切出去的内存分配给ThreadCache计数 bool IsUse false; //是否被使用 size_t ObjectSize0; //对象数量 bool isLargeMemory false; // 标记是否为大内存块256KB void* systemMemoryPtr nullptr; // 系统分配的内存指针仅用于大内存块 };PageCache.cpp#define _CRT_SECURE_NO_WARNINGS #includePageCache.h #include iostream PageCache PageCache::sInstan_; Span* PageCache::MapObjectToSpan(void* object) { PageID id ((PageID)object PAGE_SHIFT); std::unique_lockstd::mutex lock(pagemtx_); auto ret IdSpanMap_.find(id); if (ret ! IdSpanMap_.end()) { return ret-second; } else { assert(false); return nullptr; } } Span* PageCache::GetSpan(size_t K) { assert(K 0 K NPAGES); //大于128页的直接向堆申请内存不进行切分 if (K NPAGES-1) { void* ptr SystemAlloc(K); Span* span new Span; span-PageNum (PageID)ptr PAGE_SHIFT; span-n_ K; IdSpanMap_[span-PageNum] span; IdSpanMap_[span-PageNum K - 1] span; return span; } if (!spanlist_[K].Empty()) { return spanlist_[K].PopFront(); } // 检查一下后面的桶里面有没有span如果有可以把他它进行切分 for (size_t i K 1; i NPAGES; i) { if (!spanlist_[i].Empty()) { Span* nSpan spanlist_[i].PopFront(); Span* kSpan new Span; // 在nSpan的头部切一个k页下来 // k页span返回 // nSpan再挂到对应映射的位置 kSpan-PageNum nSpan-PageNum; kSpan-n_ K; nSpan-PageNum K; nSpan-n_ - K; spanlist_[nSpan-n_].PushFront(nSpan); //存储span页号与span的映射方便回收时合并查找 IdSpanMap_[nSpan-PageNum] nSpan; // 1000 5 IdSpanMap_[nSpan-PageNum nSpan-n_ - 1] nSpan; //建立ID与span映射方便CentralCache回收时查找对应的span for (PageID i 0; i kSpan-n_; i) { IdSpanMap_[kSpan-PageNum i] kSpan; } return kSpan; } } // 走到这个位置就说明后面没有大页的span了 // 这时就去找堆要一个128页的span Span* bigSpan new Span; void* ptr SystemAlloc(NPAGES - 1); bigSpan-PageNum (PageID)ptr PAGE_SHIFT; bigSpan-n_ NPAGES - 1; spanlist_[bigSpan-n_].PushFront(bigSpan); return GetSpan(K); } void PageCache::ReleaseSpanToPageCache(Span* span) { // 大于128 page的直接还给堆 if (span-n_ NPAGES-1) { void* ptr (void*)(span-PageNum PAGE_SHIFT); SystemFree(ptr); delete span; return; } // 如果是大内存块直接返回不进行合并操作 if (span-isLargeMemory) { return; } // 对span前后的页尝试进行合并缓解内存碎片问题 //向前合并 while (1) { PageID prevId span-PageNum - 1; auto ret IdSpanMap_.find(prevId); // 前面的页号没有不合并了 if (ret IdSpanMap_.end()) { break; } // 前面相邻页的span在使用不合并了 Span* prevSpan ret-second; if (prevSpan-IsUse true) { break; } // 合并出超过128页的span没办法管理不合并了 if (prevSpan-n_ span-n_ NPAGES - 1) { break; } span-PageNum prevSpan-PageNum; span-n_ prevSpan-n_; spanlist_[prevSpan-n_].Erase(prevSpan); delete prevSpan; } // 向后合并 while (1) { PageID nextId span-PageNum span-n_; auto ret IdSpanMap_.find(nextId); if (ret IdSpanMap_.end()) { break; } Span* nextSpan ret-second; if (nextSpan-IsUse true) { break; } if (nextSpan-n_ span-n_ NPAGES - 1) { break; } span-n_ nextSpan-n_; spanlist_[nextSpan-n_].Erase(nextSpan); delete nextSpan; } spanlist_[span-n_].PushFront(span); span-IsUse false; IdSpanMap_[span-PageNum] span; IdSpanMap_[span-PageNum span-n_ - 1] span; } // 注册大内存块 Span* PageCache::RegisterLargeSpan(void* ptr, size_t kpage) { if (!ptr) { throw std::invalid_argument(Invalid pointer for large memory registration); } // 检查是否已经注册 if (largeMemoryMap_.find(ptr) ! largeMemoryMap_.end()) { throw std::runtime_error(Large memory block already registered); } // 创建新的Span来管理这个大内存块 Span* span new Span(); span-PageNum reinterpret_castPageID(ptr) PAGE_SHIFT; span-n_ kpage; span-isLargeMemory true; span-systemMemoryPtr ptr; span-IsUse true; // 注册到映射表 largeMemoryMap_[ptr] span; // 注册到页映射表用于MapObjectToSpan查找 for (PageID i 0; i span-n_; i) { IdSpanMap_[span-PageNum i] span; } return span; } // 注销大内存块 void PageCache::UnregisterLargeSpan(Span* span) { if (!span || !span-isLargeMemory) { throw std::invalid_argument(Invalid span for large memory unregistration); } // 从大内存映射表中移除 auto it largeMemoryMap_.find(span-systemMemoryPtr); if (it ! largeMemoryMap_.end()) { largeMemoryMap_.erase(it); } // 从页映射表中移除 for (PageID i 0; i span-n_; i) { IdSpanMap_.erase(span-PageNum i); } // 删除Span对象 delete span; } // 检查是否为大内存块 bool PageCache::IsLargeMemory(void* ptr) const { return largeMemoryMap_.find(ptr) ! largeMemoryMap_.end(); }ConcurrentAlloc.h#pragma once #includeCommon.h #includeThreadCache.h #includeTLSManager.h #includePageCache.h // 并发申请内存 static void* ConcurrrentAlloc(size_t size) { if (size 0) return nullptr; if (size MAX_SIZE) { // 大内存分配直接使用系统分配器 try { size_t alignsize Alignment::RoundUP(size); size_t kpage (alignsize PAGE_SIZE - 1) PAGE_SHIFT; // 使用系统分配器分配大内存 void* ptr SystemAlloc(kpage); if (!ptr) { throw std::bad_alloc(); } // 记录大内存块信息到PageCache PageCache::Instance()-pagemtx_.lock(); PageCache::Instance()-RegisterLargeSpan(ptr, kpage); PageCache::Instance()-pagemtx_.unlock(); return ptr; } catch (const std::exception e) { std::cerr Large memory allocation failed: e.what() std::endl; throw; } } else { // 小内存分配通过TLSManager获取当前线程的ThreadCache实例 // RAII模式自动管理生命周期线程结束时自动清理 try { return TLSManager::GetInstance().Allocator(size); } catch (const std::exception e) { std::cerr Small memory allocation failed: e.what() std::endl; throw; } } } // 并发释放内存 static void ConcurrrentDealloc(void* ptr) { if (!ptr) return; Span*spanPageCache::Instance()-MapObjectToSpan(ptr); size_t sizespan-ObjectSize; Span* span PageCache::Instance()-MapObjectToSpan(ptr); if (size MAX_SIZE) { // 大内存释放 try { PageCache::Instance()-pagemtx_.lock(); if (!span) { PageCache::Instance()-pagemtx_.unlock(); throw std::runtime_error(Invalid pointer for large memory deallocation); } PageCache::Instance()-ReleaseSpanToPageCache(span); // 从PageCache中注销大内存块 PageCache::Instance()-UnregisterLargeSpan(span); PageCache::Instance()-pagemtx_.unlock(); // 使用系统分配器释放内存 SystemFree(ptr); } catch (const std::exception e) { std::cerr Large memory deallocation failed: e.what() std::endl; throw; } } else { // 小内存释放通过TLSManager获取当前线程的ThreadCache实例 try { TLSManager::GetInstance().Deallocator(ptr, size); } catch (const std::exception e) { std::cerr Small memory deallocation failed: e.what() std::endl; throw; } } }配备内存池申请变量这里我们就要与之前的内存池相连了首先在PageCache.h中添加声明#pragma once #includeCommon.h #include ConcurrentMemoryPool.h #includeunordered_map class PageCache { private: SpanList spanlist_[NFRESSLISTS]; std::unordered_mapPageID, Span*IdSpanMap_; static PageCache sInstan_; ConcurrentMemoryPoolSpan spanPool_;//添加声明 PageCache() default; PageCache(const PageCache) delete; public: static PageCache* Instance() { return sInstan_; } // 获取从对象到span的映射 Span* MapObjectToSpan(void* obj); // 释放空闲span回到Pagecache并合并相邻的span void ReleaseSpanToPageCache(Span* span); std::mutex pagemtx_; //获取K页的span Span* GetSpan(size_t K); };PageCache.cpp#define _CRT_SECURE_NO_WARNINGS #include PageCache.h PageCache PageCache::sInstan_; // 获取一个K页的span Span* PageCache::GetSpan(size_t k) { assert(k 0); // 大于128 page的直接向堆申请 if (k NPAGES - 1) { void* ptr SystemAlloc(k); //Span* span new Span; Span* span spanPool_.New(); span-PageNum (PageID)ptr PAGE_SHIFT; span-n_ k; IdSpanMap_[span-PageNum] span; return span; } // 先检查第k个桶里面有没有span if (!spanlist_[k].Empty()) { Span* kSpan spanlist_[k].PopFront(); // 建立id和span的映射方便central cache回收小块内存时查找对应的span for (size_t i 0; i kSpan-n_; i) { IdSpanMap_[kSpan-PageNum i] kSpan; } return kSpan; } // 检查一下后面的桶里面有没有span如果有可以把他它进行切分 for (size_t i k 1; i NPAGES; i) { if (!spanlist_[i].Empty()) { Span* nSpan spanlist_[i].PopFront(); //Span* kSpan new Span; Span* kSpan spanPool_.New(); // 在nSpan的头部切一个k页下来 // k页span返回 // nSpan再挂到对应映射的位置 kSpan-PageNum nSpan-PageNum; kSpan-n_ k; nSpan-PageNum k; nSpan-n_ - k; spanlist_[nSpan-n_].PushFront(nSpan); // 存储nSpan的首位页号跟nSpan映射方便page cache回收内存时 // 进行的合并查找 IdSpanMap_[nSpan-PageNum] nSpan; IdSpanMap_[nSpan-PageNum nSpan-n_ - 1] nSpan; // 建立id和span的映射方便central cache回收小块内存时查找对应的span for (PageID i 0; i kSpan-n_; i) { IdSpanMap_[kSpan-PageNum i] kSpan; } return kSpan; } } // 走到这个位置就说明后面没有大页的span了 // 这时就去找堆要一个128页的span //Span* bigSpan new Span; Span* bigSpan spanPool_.New(); void* ptr SystemAlloc(NPAGES - 1); bigSpan-PageNum (PageID)ptr PAGE_SHIFT; bigSpan-n_ NPAGES - 1; spanlist_[bigSpan-n_].PushFront(bigSpan); return GetSpan(k); } Span* PageCache::MapObjectToSpan(void* obj) { PageID id ((PageID)obj PAGE_SHIFT); std::unique_lockstd::mutex lock(pagemtx_); auto ret IdSpanMap_.find(id); if (ret ! IdSpanMap_.end()) { return ret-second; } else { assert(false); return nullptr; } } void PageCache::ReleaseSpanToPageCache(Span* span) { // 大于128 page的直接还给堆 if (span-n_ NPAGES - 1) { void* ptr (void*)(span-PageNum PAGE_SHIFT); SystemFree(ptr); //delete span; spanPool_.Delete(span); return; } // 对span前后的页尝试进行合并缓解内存碎片问题 while (1) { PageID prevId span-PageNum - 1; auto ret IdSpanMap_.find(prevId); // 前面的页号没有不合并了 if (ret IdSpanMap_.end()) { break; } // 前面相邻页的span在使用不合并了 Span* prevSpan ret-second; if (prevSpan-IsUse true) { break; } // 合并出超过128页的span没办法管理不合并了 if (prevSpan-n_ span-n_ NPAGES - 1) { break; } span-PageNum prevSpan-PageNum; span-n_ prevSpan-n_; spanlist_[prevSpan-n_].Erase(prevSpan); //delete prevSpan; spanPool_.Delete(prevSpan); } // 向后合并 while (1) { PageID nextId span-PageNum span-n_; auto ret IdSpanMap_.find(nextId); if (ret IdSpanMap_.end()) { break; } Span* nextSpan ret-second; if (nextSpan-IsUse true) { break; } if (nextSpan-n_ span-n_ NPAGES - 1) { break; } span-n_ nextSpan-n_; spanlist_[nextSpan-n_].Erase(nextSpan); //delete nextSpan; spanPool_.Delete(nextSpan); } spanlist_[span-n_].PushFront(span); span-IsUse false; IdSpanMap_[span-PageNum span-n_ - 1] span; IdSpanMap_[span-PageNum] span; }多线程下与malloc的性能测试对比多线程下与malloc的性能对比#define _CRT_SECURE_NO_WARNINGS //多线程下与malloc的性能测试 #includeConcurrentAlloc.h #includethread #includevector #includeatomic #includectime #includecstdio // ntimes 一轮申请和释放内存的次数 // rounds 轮次 void BenchmarkMalloc(size_t ntimes, size_t nworks, size_t rounds) { std::vectorstd::thread vthread(nworks); std::atomicsize_t malloc_costtime 0; std::atomicsize_t free_costtime 0; for (size_t k 0; k nworks; k) { vthread[k] std::thread([, k]() { std::vectorvoid* v; v.reserve(ntimes); for (size_t j 0; j rounds; j) { size_t begin1 clock(); for (size_t i 0; i ntimes; i) { v.push_back(malloc(16)); //v.push_back(malloc((16 i) % 8192 1)); } size_t end1 clock(); size_t begin2 clock(); for (size_t i 0; i ntimes; i) { free(v[i]); } size_t end2 clock(); v.clear(); malloc_costtime (end1 - begin1); free_costtime (end2 - begin2); } }); } for (auto t : vthread) { t.join(); } printf(%u个线程并发执行%u轮次每轮次malloc %u次: 花费%u ms\n, nworks, rounds, ntimes, malloc_costtime.load()); printf(%u个线程并发执行%u轮次每轮次free %u次: 花费%u ms\n, nworks, rounds, ntimes, free_costtime.load()); printf(%u个线程并发mallocfree %u次总计花费%u ms\n, nworks, nworks * rounds * ntimes, malloc_costtime.load() free_costtime.load()); } // 单轮次申请释放次数 线程数 轮次 void BenchmarkConcurrentMalloc(size_t ntimes, size_t nworks, size_t rounds) { std::vectorstd::thread vthread(nworks); std::atomicsize_t malloc_costtime 0; std::atomicsize_t free_costtime 0; for (size_t k 0; k nworks; k) { vthread[k] std::thread([]() { std::vectorvoid* v; v.reserve(ntimes); for (size_t j 0; j rounds; j) { size_t begin1 clock(); for (size_t i 0; i ntimes; i) { v.push_back(ConcurrentAlloc(16)); //v.push_back(ConcurrentAlloc((16 i) % 8192 1)); } size_t end1 clock(); size_t begin2 clock(); for (size_t i 0; i ntimes; i) { ConcurrentFree(v[i]); } size_t end2 clock(); v.clear(); malloc_costtime (end1 - begin1); free_costtime (end2 - begin2); } }); } for (auto t : vthread) { t.join(); } printf(%u个线程并发执行%u轮次每轮次concurrent alloc %u次: 花费%u ms\n, nworks, rounds, ntimes, malloc_costtime.load()); printf(%u个线程并发执行%u轮次每轮次concurrent dealloc %u次: 花费%u ms\n, nworks, rounds, ntimes, free_costtime.load()); printf(%u个线程并发concurrent allocdealloc %u次总计花费%u ms\n, nworks, nworks * rounds * ntimes, malloc_costtime.load() free_costtime.load()); } int main() { size_t n 1000; cout endl; BenchmarkConcurrentMalloc(n, 10, 10); cout endl endl; BenchmarkMalloc(n, 10, 10); cout endl; return 0; }运行结果如下显然我们的性能问题异常严重但是这个性能分析和优化我们下期更新本期内容就到这里了。后续我们还会针对内存池进行进一步的性能优化封面图自取

相关文章:

C++高并发内存池:内存池调优与测试

前面我们已经完成了三种Cache的设计。本期我们就来调整一下内存池相关的设计问题 相关代码在我的个人gitee:高并发内存池: 个人学习的项目——高并发内存池 目录 对于大于256KB的内存申请释放 释放对象优化 配备内存池申请变量 多线程下与malloc的性能测试对比…...

Youtu-Parsing助力AI编程:自动解析技术文档生成代码片段

Youtu-Parsing助力AI编程:自动解析技术文档生成代码片段 每次接触一个新的开发库或者框架,你是不是也经历过这样的时刻?面对动辄几十页的官方文档,或者一个结构复杂的开源项目README,感觉无从下手。想快速写个Demo试试…...

Troyka-IMU库详解:10-DOF惯性测量单元Arduino驱动开发

1. Troyka-IMU 库深度解析:面向嵌入式工程师的 Amperka 10-DOF 惯性测量单元驱动开发指南1.1 项目定位与工程价值Troyka-IMU 是专为 Amperka 公司推出的10 自由度(10-DOF)惯性测量单元模块设计的 Arduino 兼容库。该模块集成四类高精度传感器…...

从零搭建CarSim与Simulink联合仿真环境:实现定速巡航控制

1. 环境准备与软件安装 第一次接触CarSim和Simulink联合仿真时,我被各种专业术语搞得晕头转向。后来才发现,只要把这两个软件想象成一对默契的搭档——CarSim负责模拟真实车辆行为,Simulink则扮演控制大脑的角色。搭建环境就像组装乐高积木&a…...

无障碍辅助先锋:OpenClaw+QwQ-32B语音控制电脑全流程实测

无障碍辅助先锋:OpenClawQwQ-32B语音控制电脑全流程实测 1. 为什么我们需要语音控制电脑 去年冬天,我的一位因脊髓损伤而行动不便的朋友向我倾诉了他的困扰——每天需要花费大量时间在简单的电脑操作上。一个简单的网页搜索可能要耗费他十几分钟&#…...

中小企业NLP提效方案:MT5中文数据增强镜像在训练集扩增中的落地实践

中小企业NLP提效方案:MT5中文数据增强镜像在训练集扩增中的落地实践 你是不是也遇到过这样的困境?公司想做一个智能客服或者文本分类系统,但手头只有几百条标注数据,模型训练出来效果总是不尽人意。找外包公司标注?成…...

Visual Studio Code 远程开发:调试 Pixel Mind Decoder 调用代码

Visual Studio Code 远程开发:调试 Pixel Mind Decoder 调用代码 1. 前言:为什么需要远程开发 当你需要在GPU服务器上运行和调试AI模型代码时,直接在本地开发会遇到各种环境问题。Visual Studio Code的远程开发功能可以让你像在本地一样编写…...

嵌入式Makefile工程化构建详解:依赖管理与交叉编译实践

1. Makefile工程化构建系统详解:从原理到实践Makefile作为Unix/Linux平台最经典的构建工具,其设计哲学深刻影响了后续所有现代构建系统。在嵌入式开发领域,无论是裸机固件、RTOS应用还是Linux驱动模块,Makefile仍是项目构建流程的…...

跨平台Socket编程头文件兼容性与适配方案

1. 跨平台Socket编程的头文件兼容性问题分析1.1 问题现象与工程背景在嵌入式系统开发与网络应用移植过程中,开发者常遇到一种典型现象:一段在Linux环境下使用GCC编译通过的C语言Socket程序,在Windows平台下使用MinGW-GCC编译时出现大量头文件…...

Cosmos-Reason1-7B辅助Anaconda环境管理:创建专属模型推理Python环境

Cosmos-Reason1-7B辅助Anaconda环境管理:创建专属模型推理Python环境 你是不是也遇到过这种情况?想在自己的电脑上跑一下Cosmos-Reason1-7B这类大模型试试效果,结果光是配环境就折腾了大半天。Python版本不对,各种依赖包冲突&…...

Spring-AI 第 02 章 - 基础对话功能详解

📚 理论基础 LLM 对话原理 大语言模型的对话基于自回归生成原理:模型根据已生成的内容预测下一个 token,循环往复直到完成回复。 输入:"你好" → 模型 → "你" → "好" → "!"…...

DAMO-YOLO新手必看:5个步骤,轻松玩转阿里达摩院视觉系统

DAMO-YOLO新手必看:5个步骤,轻松玩转阿里达摩院视觉系统 1. 认识DAMO-YOLO:阿里达摩院的视觉黑科技 DAMO-YOLO是阿里达摩院基于TinyNAS架构开发的高性能实时目标检测系统。这个系统将工业级识别能力与未来主义视觉体验完美融合,…...

用Foxglove Studio可视化自动驾驶数据:激光雷达点云与IMU融合调试实战

用Foxglove Studio可视化自动驾驶数据:激光雷达点云与IMU融合调试实战 自动驾驶系统的开发离不开对多传感器数据的实时监控与深度分析。当激光雷达扫描的密集点云、IMU采集的高频惯性数据以及车辆轨迹信息需要同步呈现时,传统工具往往面临视角割裂、坐标…...

Qwen3-32B-Chat镜像参数详解:CUDA12.4+驱动550.90.07兼容性验证报告

Qwen3-32B-Chat镜像参数详解:CUDA12.4驱动550.90.07兼容性验证报告 1. 镜像概述与核心特性 Qwen3-32B-Chat私有部署镜像是专为RTX 4090D 24GB显存显卡深度优化的解决方案,基于CUDA 12.4和驱动550.90.07构建。该镜像经过特殊调优,确保在大模…...

嵌入式轻量级多轨WAV混音播放器htcw_player

1. htcw_player项目概述htcw_player是一个面向嵌入式资源受限环境设计的轻量级多声部音频播放器库,其核心目标是在无操作系统或仅运行FreeRTOS等轻量级RTOS的MCU平台上,以极低的内存开销和确定性实时性能实现WAV格式音频的解码与混音播放。该库不依赖外部…...

利用Perturb and Observe(PO)实现光伏供电的直流-直流升压变换器的最大功率跟踪(Simulink仿真实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭&a…...

Android13 编译ninja失败:exit status 137 的内存优化实战

1. 遇到exit status 137时的排查思路 第一次看到ninja编译报exit status 137时,我也是一头雾水。明明机器配置不差,32G内存的Ubuntu服务器,怎么会在编译Android13时出现内存不足?后来发现这个问题在大型项目编译中其实很常见&…...

UART串口通信原理与STM32工程实践指南

1. 串口通信:嵌入式系统中最基础且关键的片上外设资源串口(Universal Asynchronous Receiver/Transmitter,UART)是绝大多数微控制器芯片内置的标准通信外设,其设计目标并非追求极致带宽,而是以极低的硬件开…...

Nanbeige 4.1-3B极简WebUI完整教程:环境配置到高级功能使用

Nanbeige 4.1-3B极简WebUI完整教程:环境配置到高级功能使用 如果你正在寻找一个既好看又好用的本地大模型对话界面,那么今天介绍的这款 Nanbeige 4.1-3B Streamlit WebUI 绝对值得你花十分钟了解一下。它不像那些复杂的企业级平台需要一堆配置&#xff…...

Arduino轻量级模板化按钮消抖库设计与应用

1. 项目概述devnetXButtonDebouncer是一款专为 Arduino 生态设计的轻量级、模板化按钮消抖库,面向资源受限的嵌入式 MCU(如 ATmega328P、ESP32、STM32F1/F4 等)提供高可靠性、低耦合度的物理按键状态管理能力。其核心价值不在于“实现消抖”&…...

SPI通信原理、四种工作模式与多从机工程实践

1. SPI通信原理与工程实践深度解析SPI(Serial Peripheral Interface,串行外设接口)是嵌入式系统中应用最广泛、性能最可靠的同步串行通信协议之一。自Motorola于20世纪80年代提出以来,其简洁的硬件结构、确定性的时序特性以及高达…...

GLM-OCR多语言支持:中英日韩混排文档,一键准确识别

GLM-OCR多语言支持:中英日韩混排文档,一键准确识别 1. 为什么需要专业级OCR工具? 在日常工作和学习中,我们经常遇到需要处理多语言混排文档的场景。想象一下这些常见情况: 跨境电商需要处理中英文对照的产品说明书学…...

BGE-Large-Zh惊艳效果:‘感冒了怎么办’匹配健康科普文TOP3精准排序

BGE-Large-Zh惊艳效果:‘感冒了怎么办’匹配健康科普文TOP3精准排序 1. 项目简介 BGE-Large-Zh语义向量化工具是一款基于FlagEmbedding库和BAAI/bge-large-zh-v1.5模型开发的本地化语义处理工具。这个工具专门针对中文语境进行了深度优化,能够将文本转…...

轻量模型高可用:DeepSeek-R1-Distill-Qwen-1.5B负载均衡部署案例

轻量模型高可用:DeepSeek-R1-Distill-Qwen-1.5B负载均衡部署案例 1. 为什么需要轻量模型的高可用部署? 如果你正在寻找一个既高效又可靠的AI模型部署方案,那么今天的内容可能会给你带来一些启发。想象一下这样的场景:你的应用需…...

Win10运行命令历史记录突然消失?3步教你快速恢复(附regedit清理指南)

Win10运行命令历史记录丢失的终极修复与优化指南 你是否曾经依赖Win键R快速启动常用程序,却突然发现历史记录全部消失?这种看似微小的问题实际上会显著降低工作效率。本文将深入解析运行命令历史记录的运作机制,提供三种不同级别的解决方案&a…...

为什么你的Jetson AGX装不上最新VScode?ARM64架构适配全解析

为什么你的Jetson AGX装不上最新VScode?ARM64架构适配全解析 在嵌入式开发领域,NVIDIA Jetson AGX Xavier凭借其强大的AI算力和紧凑的形态,已成为边缘计算的热门选择。然而许多开发者在初次使用这款ARM64架构设备时,都会遇到一个看…...

5分钟掌握开源电路板查看工具:电子工程师的PCB分析新选择

5分钟掌握开源电路板查看工具:电子工程师的PCB分析新选择 【免费下载链接】OpenBoardView View .brd files 项目地址: https://gitcode.com/gh_mirrors/op/OpenBoardView 您是否经常因为不同格式的电路板文件而烦恼?是否需要在多个商业软件之间切…...

Phi-3-Vision快速体验:上传任何图片,AI都能看懂并回答你的问题

Phi-3-Vision快速体验:上传任何图片,AI都能看懂并回答你的问题 1. 什么是Phi-3-Vision-128K-Instruct Phi-3-Vision-128K-Instruct是一个轻量级但功能强大的多模态AI模型,能够同时理解图像和文本内容。这个模型最令人惊叹的能力是&#xff…...

离散数学学习笔记

课程知识框架第一章 命题与命题公式 第二章 命题逻辑的推理理论 第三章 谓词逻辑 第四章 集合 第五章 关系与函数 第六章 代数系统的一般概念 第七章 格与布尔代数 第八章 图 第九章 图的应用第一章 命题与命题公式考核内容与考核要求一.命题与命题联结词,要求…...

Nanbeige 4.1-3B多场景落地:从个人娱乐到企业知识库问答终端

Nanbeige 4.1-3B多场景落地:从个人娱乐到企业知识库问答终端 1. 像素冒险聊天终端:让AI对话更有趣 Nanbeige 4.1-3B模型的最新"像素游戏风"对话前端彻底改变了传统AI交互体验。这套专为Nanbeige模型设计的界面采用了高饱和度、充满活力的JRP…...