当前位置: 首页 > article >正文

手写一个LRU缓存:从原理到高并发实战

前言你有没有想过Redis的内存淘汰策略、MySQL的缓冲池、浏览器的后退按钮背后都用到了同一个算法LRULeast Recently Used最近最少使用。今天我们手写一个生产级的LRU缓存· O(1)时间复杂度的get和put· 支持泛型存储· 线程安全· 过期时间支持· 缓存统计---一、LRU的核心原理1. 淘汰策略当缓存满了要淘汰谁访问顺序A → B → C → D → E刚访问了E如果满了需要淘汰1个- FIFO先进先出淘汰A- LFU最不经常使用淘汰B假设B访问次数最少- LRU最近最少使用淘汰AA最久没被访问2. 数据结构选择LRU需要两个操作都是O(1)· 快速查找哈希表 O(1)· 维护访问顺序双向链表 O(1)┌─────────────────────────────────────────────────┐│ 哈希表 ││ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ││ │key1 │ │key2 │ │key3 │ │key4 │ │key5 │ ││ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ ││ │ │ │ │ │ │└─────┼───────┼───────┼───────┼───────┼─────────┘│ │ │ │ │▼ ▼ ▼ ▼ ▼┌─────────────────────────────────────────────────┐│ 双向链表 ││ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ││ │ Node │◄──►│ Node │◄──►│ Node │◄──►│ Node │ ││ │head │ │ │ │ │ │tail │ ││ └─────┘ └─────┘ └─────┘ └─────┘ ││ ↑ ↑ ││ 最久未使用 最近使用 │└─────────────────────────────────────────────────┘操作流程· get(key)哈希表找到节点 → 移动到链表头部 → 返回值· put(key, value)存在则更新并移到头不存在则创建插入头部满了则删除尾部---二、完整代码实现1. 双向链表节点定义c#include stdio.h#include stdlib.h#include string.h#include pthread.h#include time.h// 链表节点typedef struct lru_node {char *key; // 键void *value; // 值time_t expire_time; // 过期时间0表示永不过期struct lru_node *prev; // 前驱指针struct lru_node *next; // 后继指针} lru_node_t;// LRU缓存结构typedef struct {lru_node_t **hash_table; // 哈希表拉链法int hash_size; // 哈希表大小lru_node_t *head; // 链表头最近使用lru_node_t *tail; // 链表尾最久未使用int capacity; // 容量int count; // 当前数量pthread_mutex_t mutex; // 互斥锁// 统计信息long long hits; // 命中次数long long misses; // 未命中次数} lru_cache_t;2. 哈希函数c// 简单高效的哈希函数unsigned int lru_hash(const char *str, int table_size) {unsigned int hash 5381;int c;while ((c *str)) {hash ((hash 5) hash) c;}return hash % table_size;}3. 创建和销毁缓存c// 创建LRU缓存lru_cache_t *lru_cache_create(int capacity, int hash_size) {lru_cache_t *cache malloc(sizeof(lru_cache_t));if (!cache) return NULL;cache-hash_size hash_size;cache-hash_table calloc(hash_size, sizeof(lru_node_t*));if (!cache-hash_table) {free(cache);return NULL;}cache-head NULL;cache-tail NULL;cache-capacity capacity;cache-count 0;cache-hits 0;cache-misses 0;pthread_mutex_init(cache-mutex, NULL);return cache;}// 释放链表中的节点void free_node(lru_node_t *node) {if (!node) return;free(node-key);free(node-value);free(node);}// 销毁整个缓存void lru_cache_destroy(lru_cache_t *cache) {if (!cache) return;pthread_mutex_lock(cache-mutex);// 释放所有节点lru_node_t *node cache-head;while (node) {lru_node_t *next node-next;free_node(node);node next;}free(cache-hash_table);pthread_mutex_unlock(cache-mutex);pthread_mutex_destroy(cache-mutex);free(cache);}4. 链表操作c// 从链表中移除节点void remove_node(lru_cache_t *cache, lru_node_t *node) {if (node-prev) {node-prev-next node-next;} else {cache-head node-next; // 是头节点}if (node-next) {node-next-prev node-prev;} else {cache-tail node-prev; // 是尾节点}node-prev NULL;node-next NULL;}// 将节点移动到链表头部最近使用void move_to_head(lru_cache_t *cache, lru_node_t *node) {if (cache-head node) return; // 已经在头部// 先从原位置移除remove_node(cache, node);// 插入到头部node-next cache-head;node-prev NULL;if (cache-head) {cache-head-prev node;}cache-head node;if (!cache-tail) {cache-tail node;}}// 删除尾部节点最久未使用lru_node_t* pop_tail(lru_cache_t *cache) {if (!cache-tail) return NULL;lru_node_t *tail cache-tail;remove_node(cache, tail);return tail;}5. 哈希表操作c// 添加或更新哈希表项void hash_table_put(lru_cache_t *cache, const char *key, lru_node_t *node) {unsigned int index lru_hash(key, cache-hash_size);// 检查是否已存在相同key的节点更新时使用lru_node_t **curr cache-hash_table[index];while (*curr) {if (strcmp((*curr)-key, key) 0) {// 替换旧节点*curr node;return;}curr ((*curr)-next);}// 插入新节点头插法node-next cache-hash_table[index];cache-hash_table[index] node;}// 从哈希表中获取节点lru_node_t* hash_table_get(lru_cache_t *cache, const char *key) {unsigned int index lru_hash(key, cache-hash_size);lru_node_t *node cache-hash_table[index];while (node) {if (strcmp(node-key, key) 0) {return node;}node node-next;}return NULL;}// 从哈希表中删除节点void hash_table_remove(lru_cache_t *cache, const char *key) {unsigned int index lru_hash(key, cache-hash_size);lru_node_t **curr cache-hash_table[index];while (*curr) {if (strcmp((*curr)-key, key) 0) {lru_node_t *to_remove *curr;*curr to_remove-next;return;}curr ((*curr)-next);}}6. 核心方法put和getc// 设置键值对int lru_cache_put(lru_cache_t *cache, const char *key, void *value, int ttl_seconds) {if (!cache || !key) return -1;pthread_mutex_lock(cache-mutex);// 检查是否已存在lru_node_t *node hash_table_get(cache, key);if (node) {// 更新现有节点free(node-value);node-value value;node-expire_time ttl_seconds 0 ? time(NULL) ttl_seconds : 0;// 移到头部move_to_head(cache, node);pthread_mutex_unlock(cache-mutex);return 0;}// 创建新节点node malloc(sizeof(lru_node_t));if (!node) {pthread_mutex_unlock(cache-mutex);return -1;}node-key strdup(key);node-value value;node-expire_time ttl_seconds 0 ? time(NULL) ttl_seconds : 0;node-prev NULL;node-next NULL;// 检查容量if (cache-count cache-capacity) {// 淘汰最久未使用的节点lru_node_t *tail pop_tail(cache);if (tail) {hash_table_remove(cache, tail-key);free_node(tail);cache-count--;}}// 插入新节点到头部node-next cache-head;if (cache-head) {cache-head-prev node;}cache-head node;if (!cache-tail) {cache-tail node;}// 添加到哈希表hash_table_put(cache, key, node);cache-count;pthread_mutex_unlock(cache-mutex);return 0;}// 获取键对应的值void* lru_cache_get(lru_cache_t *cache, const char *key) {if (!cache || !key) return NULL;pthread_mutex_lock(cache-mutex);lru_node_t *node hash_table_get(cache, key);if (!node) {cache-misses;pthread_mutex_unlock(cache-mutex);return NULL;}// 检查是否过期if (node-expire_time 0 time(NULL) node-expire_time) {// 过期了删除节点remove_node(cache, node);hash_table_remove(cache, key);free_node(node);cache-count--;cache-misses;pthread_mutex_unlock(cache-mutex);return NULL;}// 移动到头部move_to_head(cache, node);cache-hits;pthread_mutex_unlock(cache-mutex);return node-value;}7. 统计和调试接口c// 获取命中率float lru_cache_hit_rate(lru_cache_t *cache) {long long total cache-hits cache-misses;if (total 0) return 0;return (float)cache-hits / total;}// 获取命中次数long long lru_cache_hits(lru_cache_t *cache) {return cache-hits;}// 获取未命中次数long long lru_cache_misses(lru_cache_t *cache) {return cache-misses;}// 获取当前缓存大小int lru_cache_size(lru_cache_t *cache) {return cache-count;}// 清空缓存void lru_cache_clear(lru_cache_t *cache) {pthread_mutex_lock(cache-mutex);lru_node_t *node cache-head;while (node) {lru_node_t *next node-next;free_node(node);node next;}memset(cache-hash_table, 0, cache-hash_size * sizeof(lru_node_t*));cache-head NULL;cache-tail NULL;cache-count 0;pthread_mutex_unlock(cache-mutex);}// 打印缓存内容调试用void lru_cache_print(lru_cache_t *cache) {pthread_mutex_lock(cache-mutex);printf(LRU Cache (head → tail): );lru_node_t *node cache-head;while (node) {printf(%s , node-key);node node-next;}printf(\n);pthread_mutex_unlock(cache-mutex);}---三、测试代码基础功能测试cint main() {// 创建容量为3的LRU缓存lru_cache_t *cache lru_cache_create(3, 16);printf( LRU缓存基础测试 \n\n);// 插入数据int *v1 malloc(sizeof(int)); *v1 100;int *v2 malloc(sizeof(int)); *v2 200;int *v3 malloc(sizeof(int)); *v3 300;int *v4 malloc(sizeof(int)); *v4 400;lru_cache_put(cache, A, v1, 0);lru_cache_put(cache, B, v2, 0);lru_cache_put(cache, C, v3, 0);lru_cache_print(cache); // 期望: A B C 或 C B A取决于实现细节// 访问BB应该移到头部printf(访问B\n);int *val lru_cache_get(cache, B);printf(获取B: %d\n, val ? *val : -1);lru_cache_print(cache);// 插入D容量3应该淘汰最久未使用的Aprintf(插入D\n);lru_cache_put(cache, D, v4, 0);lru_cache_print(cache);// 尝试获取A应该不存在val lru_cache_get(cache, A);printf(获取A: %s\n, val ? 存在 : 不存在已被淘汰);// 统计printf(\n 统计信息 \n);printf(命中次数: %lld\n, lru_cache_hits(cache));printf(未命中次数: %lld\n, lru_cache_misses(cache));printf(命中率: %.2f%%\n, lru_cache_hit_rate(cache) * 100);printf(当前大小: %d\n, lru_cache_size(cache));lru_cache_destroy(cache);return 0;}运行结果 LRU缓存基础测试 LRU Cache (head → tail): C B A访问B获取B: 200LRU Cache (head → tail): B C A插入DLRU Cache (head → tail): D B C获取A: 不存在已被淘汰 统计信息 命中次数: 1未命中次数: 1命中率: 50.00%当前大小: 3过期时间测试cvoid test_expiration() {lru_cache_t *cache lru_cache_create(10, 32);printf(\n 过期时间测试 \n);int *v malloc(sizeof(int)); *v 123;lru_cache_put(cache, temp, v, 2); // 2秒后过期printf(立即获取: %d\n, *(int*)lru_cache_get(cache, temp));printf(等待3秒...\n);sleep(3);void *result lru_cache_get(cache, temp);printf(3秒后获取: %s\n, result ? 存在 : 已过期);lru_cache_destroy(cache);}并发测试c#include pthread.h#include unistd.hlru_cache_t *global_cache;int stop 0;int test_counter 0;void *worker_read(void *arg) {int id *(int*)arg;char key[16];for (int i 0; i 10000 !stop; i) {snprintf(key, sizeof(key), key_%d, rand() % 20);void *val lru_cache_get(global_cache, key);// 模拟工作usleep(1);}return NULL;}void *worker_write(void *arg) {int id *(int*)arg;char key[16];for (int i 0; i 2000 !stop; i) {snprintf(key, sizeof(key), key_%d, rand() % 20);int *val malloc(sizeof(int));*val id * 1000 i;lru_cache_put(global_cache, key, val, 0);usleep(10);}return NULL;}void test_concurrent() {global_cache lru_cache_create(100, 128);pthread_t readers[10], writers[5];int ids[15];printf(\n 并发测试 \n);printf(启动10个读线程5个写线程...\n);for (int i 0; i 10; i) {ids[i] i;pthread_create(readers[i], NULL, worker_read, ids[i]);}for (int i 0; i 5; i) {ids[10 i] i;pthread_create(writers[i], NULL, worker_write, ids[10 i]);}sleep(5);stop 1;for (int i 0; i 10; i) {pthread_join(readers[i], NULL);}for (int i 0; i 5; i) {pthread_join(writers[i], NULL);}printf(最终缓存大小: %d\n, lru_cache_size(global_cache));printf(命中率: %.2f%%\n, lru_cache_hit_rate(global_cache) * 100);lru_cache_destroy(global_cache);}---四、性能优化技巧1. 减少锁竞争c// 方案分段锁typedef struct {lru_cache_t *segments[16];pthread_mutex_t segment_locks[16];} segmented_lru_t;unsigned int get_segment_index(const char *key) {return lru_hash(key, 16);}void *segmented_get(segmented_lru_t *cache, const char *key) {int idx get_segment_index(key);pthread_mutex_lock(cache-segment_locks[idx]);void *val lru_cache_get(cache-segments[idx], key);pthread_mutex_unlock(cache-segment_locks[idx]);return val;}2. 使用内存池c// 预分配节点减少malloc开销typedef struct {lru_node_t *free_list;pthread_mutex_t pool_lock;} node_pool_t;lru_node_t *node_pool_alloc(node_pool_t *pool) {pthread_mutex_lock(pool-pool_lock);if (pool-free_list) {lru_node_t *node pool-free_list;pool-free_list node-next;pthread_mutex_unlock(pool-pool_lock);return node;}pthread_mutex_unlock(pool-pool_lock);return malloc(sizeof(lru_node_t));}3. 提升缓存友好性c// 将key和value连续存储typedef struct {char key[64]; // 固定长度避免指针跳转char value[256];time_t expire_time;struct lru_node *prev;struct lru_node *next;} compact_node_t;---五、LRU的应用场景场景 说明 典型产品数据库缓冲池 缓存热点数据页 MySQL InnoDB Buffer PoolRedis淘汰策略 内存不足时淘汰key Redis maxmemory-policy浏览器缓存 后退/前进按钮 Chrome Back/Forward CacheCDN缓存 边缘节点缓存热门内容 CloudFront, Akamai操作系统页缓存 缓存磁盘数据页 Linux Page Cache---六、与其他淘汰算法对比算法 原理 优点 缺点LRU 淘汰最久未使用 实现简单局部性好 扫描一次会污染LFU 淘汰使用次数最少 抗扫描 需要维护频率ARC 自适应LRULFU 效果好 实现复杂FIFO 淘汰最早进入 极简单 效果差---七、总结通过这篇文章你学会了· LRU缓存的核心原理哈希表 双向链表· 完整的生产级实现支持过期、统计、并发· 性能优化技巧分段锁、内存池· 实际应用场景这个LRU缓存可以直接用于你的项目。把它改成更通用的模板版本加上更多配置选项就是一个完整的缓存组件。下一篇预告《从LRU到LFU手写一个自适应缓存淘汰算法》---评论区分享一下你用LRU解决过什么问题

相关文章:

手写一个LRU缓存:从原理到高并发实战

前言你有没有想过:Redis的内存淘汰策略、MySQL的缓冲池、浏览器的后退按钮,背后都用到了同一个算法?LRU(Least Recently Used,最近最少使用)。今天,我们手写一个生产级的LRU缓存: O(…...

深度解析:Zotero PDF Translate插件版本兼容性困境与架构级解决方案

深度解析:Zotero PDF Translate插件版本兼容性困境与架构级解决方案 【免费下载链接】zotero-pdf-translate Translate PDF, EPub, webpage, metadata, annotations, notes to the target language. Support 20 translate services. 项目地址: https://gitcode.co…...

ZipAgent:基于Python的压缩包自动化处理与智能代理工具

1. 项目概述与核心价值最近在折腾一些自动化处理压缩包的任务,比如批量解压、按规则重命名、提取特定文件等,发现手动操作不仅繁琐,还容易出错。就在这个当口,我在GitHub上发现了JiayuXu0大佬开源的ZipAgent项目。乍一看名字&…...

3分钟解锁网易云音乐加密文件:ncmdumpGUI终极解密秘籍

3分钟解锁网易云音乐加密文件:ncmdumpGUI终极解密秘籍 【免费下载链接】ncmdumpGUI C#版本网易云音乐ncm文件格式转换,Windows图形界面版本 项目地址: https://gitcode.com/gh_mirrors/nc/ncmdumpGUI 你是否曾在网易云音乐精心收藏了数百首心仪歌…...

c++如何实现跨平台的文件读写进度监听器回调机制【实战】

...

人工智能篇--- SSM 模型架构

一、什么是 SSM 模型架构?SSM(State Space Model,状态空间模型) 是一种源于控制理论的序列建模架构,近年来被深度学习方法重新激活,成为 Transformer 的高效替代方案。核心思想是:将一个输入序列…...

AgentMesh:构建多智能体协作系统的架构设计与工程实践

1. 项目概述:从单体智能到群体协作的范式跃迁最近在探索AI智能体领域时,一个名为“AgentMesh”的开源项目引起了我的浓厚兴趣。这个项目由MinimalFuture团队发起,其核心目标直指当前AI应用开发中的一个关键瓶颈:如何高效地构建和管…...

AI驱动开发:从代码生成到CI/CD集成的全流程实践指南

1. 项目概述:当AI成为你的编程搭档如果你是一名开发者,最近可能已经感受到了身边的变化。以前,我们写代码、查文档、调试Bug,大部分时间都在和IDE、搜索引擎以及自己的“头发”作斗争。但现在,一个全新的“搭档”正悄然…...

VTJ.PRO v2.3.8 版本发布:接入 DeepSeek V4,多项功能升级提升开发者体验

VTJ.PRO v2.3.8 版:多项功能升级亮点多低代码开发平台 VTJ.PRO 正式发布 v2.3.8 版本,此次更新带来了一系列重要能力。在 AI 能力方面,系统提示词更新后支持自主拆分区块组件,可根据页面结构自动将可复用部分抽象为独立组件&#…...

AI智能体核心原理:从OpenAI函数调用到自主任务循环的百行代码实现

1. 项目概述:从零理解AI智能体的本质如果你能看懂大约100行Python代码,你就能理解什么是AI智能体。这不是一句夸张的宣传语,而是nanoAgent这个项目试图传达的核心理念。在当下AI浪潮中,“智能体”这个词被赋予了太多神秘色彩&…...

从零到精通:AI大模型学习路线全解析!AI大模型学习路线(非常详细)收藏这一篇就够了

本文提供了一份详尽的AI大模型学习路线,涵盖了数学与编程基础、机器学习入门、深度学习深入、大模型探索以及进阶应用等方面。文章推荐了丰富的学习资源,包括经典书籍、在线课程和实践项目,帮助读者系统地学习和掌握AI大模型技术。同时&#…...

Windows键盘重映射神器SharpKeys:彻底告别误触烦恼的终极指南

Windows键盘重映射神器SharpKeys:彻底告别误触烦恼的终极指南 【免费下载链接】sharpkeys SharpKeys is a utility that manages a Registry key that allows Windows to remap one key to any other key. 项目地址: https://gitcode.com/gh_mirrors/sh/sharpkeys…...

ServiceNow AgentLab:企业级AI智能体开发与工作流自动化实战指南

1. 项目概述:当AI智能体遇上企业级工作流如果你在IT服务管理、企业流程自动化或者AI应用开发领域待过一段时间,那么ServiceNow这个名字你一定不陌生。它几乎是大型企业IT服务台、IT运维和业务流程管理的代名词。而“AgentLab”这个项目,简单来…...

5步掌握Moonlight TV:免费大屏游戏串流终极方案

5步掌握Moonlight TV:免费大屏游戏串流终极方案 【免费下载链接】moonlight-tv Lightweight NVIDIA GameStream Client, for LG webOS TV and embedded devices like Raspberry Pi 项目地址: https://gitcode.com/gh_mirrors/mo/moonlight-tv 你是否梦想过在…...

Claude AI机器人无缝集成企业微信、钉钉:从架构设计到生产部署全指南

1. 项目概述:一个连接Claude与即时通讯的桥梁最近在折腾AI应用落地的过程中,我发现了一个挺有意思的项目:op7418/Claude-to-IM-skill。简单来说,这个项目就是一个“翻译官”和“接线员”,它能把Claude这个强大的AI语言…...

RoboNeuron:连接LLM代理与机器人中间件的桥梁架构

1. RoboNeuron:机器人中间件与LLM代理的桥梁架构解析在机器人技术快速发展的今天,我们面临着一个核心矛盾:机器人硬件能力的快速迭代与软件生态的碎片化。作为一名长期从事机器人系统开发的工程师,我深刻体会到这种割裂带来的集成…...

C++进阶:普通重载运算符 vs 隐式类型转换重载运算符,一篇讲透区别

C进阶:普通重载运算符 vs 隐式类型转换重载运算符,一篇讲透区别 文章目录C进阶:普通重载运算符 vs 隐式类型转换重载运算符,一篇讲透区别一、先明确核心概念1. 什么是【普通重载运算符】?2. 什么是【隐式类型转换的重载…...

C++编写MCP网关必须绕开的4类配置反模式,第3种导致某金融客户日均损失27万交易延迟

更多请点击: https://intelliparadigm.com 第一章:C 编写高吞吐量 MCP 网关 配置步骤详解 构建高吞吐量的 MCP(Message Control Protocol)网关需兼顾低延迟、内存零拷贝与多核并行处理能力。C17 及以上标准提供了 std::pmr::mono…...

CUDA Graph重构AI训练循环:单卡Llama-3-8B微调吞吐提升2.6倍,但92%开发者漏掉了这4个内存屏障关键点

更多请点击: https://intelliparadigm.com 第一章:CUDA Graph与AI训练循环的范式变革 传统 PyTorch/TensorFlow 的动态图执行模式在每次迭代中重复解析计算图、调度内核、同步流,造成显著的 CPU 开销与 GPU 利用率波动。CUDA Graph 通过将整…...

C++网关吞吐量卡在8GB/s?教你用NUMA绑定+SIMD解析+RingBuffer批处理突破硬件瓶颈

更多请点击: https://intelliparadigm.com 第一章:C高吞吐量MCP网关的设计目标与性能瓶颈全景 核心设计目标 高吞吐量MCP(Message Control Protocol)网关需在微秒级延迟约束下支撑每秒百万级消息路由,同时保障端到端…...

CUDA 13.4+TensorRT 9.3实测对比:AI推理延迟降低42.6%的5个内核级优化动作(附NVML监控模板)

更多请点击: https://intelliparadigm.com 第一章:CUDA 13 编程与 AI 算子优化 生产环境部署 CUDA 13 引入了对 Hopper 架构的原生支持、增强的 GPU 内存管理(如 Unified Memory 的惰性分配优化)以及更严格的 PTX 版本兼容性策略…...

Gitee的AI战略升级:如何重塑中国开源生态的技术底座

中国开源生态正在经历一场前所未有的智能化变革。作为国内最大的代码托管平台之一,Gitee近期推出的"模力方舟"战略,标志着其从传统代码托管服务向AI驱动的工程效率平台的全面转型。这一转变不仅关乎单一产品的升级,更预示着中国开源…...

Gitee崛起:本土化代码托管平台如何重塑中国开发者生态

在数字化转型浪潮席卷全球的当下,代码托管平台已成为支撑技术创新的关键基础设施。作为中国领先的一站式DevOps平台,Gitee正凭借其独特的本土化优势,在中国开发者生态中扮演着越来越重要的角色。与全球性平台相比,Gitee更懂中国开…...

Linux 的 split 命令

Linux 的 split 命令是一个用于分割大文件的实用工具,它可以将单个大文件分割成多个小文件,便于存储、传输或处理。以下是关于 split 命令的详细说明: 1. 基本语法 split [选项] [输入文件] [输出文件前缀] 2. 常用选项 -b:按大…...

Gitee CodePecker SCA:构建企业级软件供应链安全新防线

在数字化浪潮席卷全球的今天,软件供应链安全已成为企业数字化转型过程中不可忽视的战略要地。随着开源组件在企业软件开发中的广泛应用,第三方组件问题引发的安全事件频发,企业亟需一款专业、高效且深度适配本土研发环境的软件成分分析&#…...

C++26静态反射在构建系统中的成本博弈(编译期开销红黑榜TOP3)

更多请点击: https://intelliparadigm.com 第一章:C26静态反射在构建系统中的成本博弈(编译期开销红黑榜TOP3) C26 引入的 std::reflexpr 和 meta::info 等静态反射核心设施,虽为元编程带来前所未有的表达力&#xff…...

Rust重构AutoGPT:高性能自主AI智能体框架深度解析

1. 项目概述:当AI学会“自己动手” 最近在GitHub上看到一个挺有意思的项目,叫 kevin-rs/autogpt 。这名字一看就让人联想到去年那个火遍全网的AutoGPT,没错,它正是那个“让AI自己思考、自己执行任务”的明星项目的Rust语言实现…...

ValueCell框架:构建声明式响应式数据科学流水线

1. 项目概述:当数据科学遇上“细胞”化协作最近在数据科学和机器学习社区里,一个名为ValueCell-ai/valuecell的项目开始引起不少人的注意。乍一看这个名字,可能会联想到生物学里的“细胞”,或者编程里的“值对象”。实际上&#x…...

B站视频下载终极指南:3分钟掌握免费批量下载技巧

B站视频下载终极指南:3分钟掌握免费批量下载技巧 【免费下载链接】BilibiliDown (GUI-多平台支持) B站 哔哩哔哩 视频下载器。支持稍后再看、收藏夹、UP主视频批量下载|Bilibili Video Downloader 😳 项目地址: https://gitcode.com/gh_mirrors/bi/Bil…...

Keras实现Mask R-CNN目标检测与实例分割实战

1. 基于Keras的Mask R-CNN目标检测实战指南在计算机视觉领域,目标检测一直是最具挑战性的任务之一。它不仅需要识别图像中的物体是什么(分类),还需要精确确定它们的位置(定位)。作为一名长期从事计算机视觉…...