当前位置: 首页 > article >正文

ICLR 2026 | 告别Top-K检索!RF-Mem在嵌入空间逐步重构证据链,实现长记忆渐进式唤醒

今天分享一篇来自大连理工大学、香港城市大学、华为和中国科学技术大学的最新工作RF-Mem发表于ICLR 2026。这篇工作关注个性化大模型中的一个关键问题当用户历史越来越长时模型到底该怎样从海量记忆里准确找回“此时此刻最相关的那一段”现有方法大多停留在一次性向量 Top-K 的“快检索”范式中它反应迅速、成本可控但也天然偏向表层相似面对含糊提问、长尾细节或需要串联多段经历的问题时往往只能“捞到几片碎片”甚至把无关记忆一并带上来。RF-Mem 的核心想法很直观也很有启发性突破传统“快检索”提出一种“慢回忆”机制。借鉴人类记忆中的双加工理论RF-Mem 不再把检索看成一次性命中而是拆成两条路径。对于“很熟悉”的问题直接走快速的Familiarity路径对于“没那么熟悉”或“候选结果不确定”的问题则启动更深入的Recollection路径像人类回忆往事一样顺着线索逐步重建上下文把真正关键的证据一点点找出来。实验表明RF-Mem 在 PersonaMem、PersonaBench 和 LongMemEval 三个基准上都取得了稳定提升并在固定预算和延迟约束下持续优于 one-shot retrieval 与 full-context 方法。摘要个性化大模型的效果很大程度上取决于它能否从用户长期历史中检索出真正相关的记忆。现有记忆检索方法大多将问题简化为一次性相似度搜索也就是一种“快检索”或者粗暴地把全部历史塞进提示词中但这两种方式都难以兼顾准确性、效率与可扩展性。RF-Mem 从认知科学中的Recollection-Familiarity Dual-Process Theory出发指出用户记忆检索不应只停留在快速识别还应具备一种在必要时被唤起的“慢回忆”能力。Problem Figure具体来说RF-Mem 先通过一次 probe retrieval 得到初步候选并用平均相似度与分布熵共同衡量 familiarity signal。若问题与用户记忆高度匹配就沿着Familiarity路径执行低开销的一步式 top-K 检索若匹配不充分或候选分布存在较高不确定性则切换到Recollection路径通过聚类、query-centroid mixing 和多轮扩展在 embedding space 中逐步重建更完整的证据链。这样的设计既避免了 full-context 的昂贵开销也弥补了传统“快检索”在复杂个性化场景下“检得快但检不深”的不足。主要创新点提出面向个性化记忆检索的双路径框架首次将认知科学中的 Familiarity-Recollection 双加工理论系统引入个性化 LLM 记忆检索让检索过程具备“快速识别”和“深度回想”两种模式。设计基于不确定性的自适应切换机制不只看 top-K 分数高不高还结合候选分布的熵来判断“模型到底熟不熟悉这个问题”从而决定是一步检索还是进入多轮 recollection。提出 stepwise recollection retrieval在 Recollection 路径中通过 KMeans 聚类候选记忆并将 cluster centroid 与原 query 做混合更新实现链式、渐进式的证据重构而不是停留在一次向量匹配。兼顾效果与效率RF-Mem 不依赖额外的大规模生成过程主要建立在向量检索与轻量聚类之上因此既能提升复杂问题上的检索质量也能保持接近 one-shot retrieval 的延迟。方法Method Figure整体框架RF-Mem 的整体流程可以概括为四步输入用户问题Familiarity Selection对用户记忆做一次探针检索并根据平均相似度与熵判断当前问题在记忆库中的熟悉度执行对应的记忆检索路径熟悉度高Familiarity Retrieval熟悉度低走Recollection Retrieval将检索出的记忆交给 LLM 生成最终回答。这个框架的关键不在于“检索得更多”而在于根据问题难度和熟悉度动态决定应该检索得多深。Familiarity Selection先判断“这个问题熟不熟”RF-Mem 并不默认所有问题都需要复杂推理而是先通过一次轻量 probe retrieval 估计熟悉度。具体来说它会对初步候选记忆的相似度分数进行统计计算Mean Score反映候选记忆整体上与当前问题有多接近Entropy反映候选分布是否集中还是存在明显不确定性。直觉上如果平均分高、而且候选分布很集中那么说明模型已经“心里有数”直接走 Familiarity 路径即可相反如果平均分偏低或者虽然分数不算太差但候选分布很分散那么说明当前问题可能涉及更深层的用户背景这时就需要启动 Recollection。这一设计对应了人类记忆中的经典现象熟悉的问题可以快速认出不熟悉的问题则需要慢慢回想。Familiarity Retrieval高熟悉度下的一步式命中当 familiarity signal 足够强时RF-Mem 采用 Familiarity 路径。这个阶段非常直接基于 query embedding 与记忆 embedding 的相似度返回 top-K 记忆片段。它的优势在于延迟低基本保持 dense retrieval 的效率开销小不需要额外推理与扩展适合“事实清晰、表达直接”的问题例如基础信息、显式偏好、明显可匹配的个人背景。换句话说RF-Mem 并不是一味追求“更复杂的检索”而是在该简单的时候果断简单。Recollection Retrieval低熟悉度下的“慢回忆”真正体现 RF-Mem 新意的是它的 Recollection 路径。当系统判断当前问题“不够熟悉”时它不会停在第一次检索结果上而是进入一个retrieve-cluster-mix-iterate的循环过程Retrieve先取回一批候选记忆Cluster对候选记忆做聚类找到若干语义中心Mix将当前 query 与 cluster centroid 做混合得到新的 recollect queryIterate用新的 recollect query 继续检索逐步扩展相关证据链。这种做法很像人类回忆的过程一开始也许只记得一个模糊线索但顺着这个线索往下想就会慢慢把事件背景、个人偏好和上下文关系一起带出来。从上面的图也能更直观看到这一点。面对“Can you suggest some new evidence-based practices to explore for healthcare decision-making?” 这样的提问传统 one-shot familiarity retrieval 虽然能抓到 “effective and safe”“complement conventional treatments” 这类局部相关片段却也容易混入 “I tried a new healthy recipe…” 这样的噪声最后导致答案偏移。相比之下RF-Mem 的 recollection 路径会继续沿着线索向外扩展把 “conventional medicine”“evidence-based practices resonate” 等更关键的上下文逐步串联起来从而得到更完整、更可靠的个性化证据。与传统“单跳检索”相比Recollection 的优势在于能更好处理模糊问题、上下文依赖问题、长尾偏好问题能逐步恢复跨轮次、跨时间分散存储的用户记忆能在不读取 full context 的前提下构造更完整的证据链。RF-Mem 为什么比“全量记忆输入”更合理很多个性化系统的一个常见思路是既然怕快检索漏掉关键信息那就把用户历史全都给模型看。但问题在于这样做在用户记忆变长后会迅速失控token 成本极高上下文长度受限噪声信息大量引入模型难以判断什么才是真正关键的历史片段。RF-Mem 的思路恰好相反不是把所有记忆都暴力灌进去也不是执着于更快地做一次检索而是引入一种“慢回忆”机制按需唤起关键记忆。这也正是它在大规模长期记忆场景下仍然有效的核心原因。实验评测基准与设置RF-Mem 在三个代表性任务上进行了系统评测PersonaMem关注个性化生成测试模型能否根据用户长期历史给出与当前 persona 一致的回答PersonaBench关注个性化检索强调从私人文档中找回与用户信息相关的记忆LongMemEval关注长程记忆下的信息定位与检索能力。实验同时覆盖了不同 memory corpus scale以及多种 embedding backbone包括 MiniLM、MPNet 与 BGE说明 RF-Mem 的改进并不依赖某一个特定检索器。主实验结论RF-Mem 在三类基准上都展现出一致优势。PersonaMem关注的是“检索出来的记忆最终能不能真正帮助模型完成个性化生成”。可以看到RF-Mem 在32K、128K 和 1M三种 memory corpus 下都取得了最高 overall accuracy分别达到0.6350、0.5394 和 0.4589。这说明 RF-Mem 的优势并不局限于小规模记忆而是随着用户历史不断变长依然能够稳定找到对回答最有帮助的记忆证据。与Full Context相比RF-Mem 在效果更优的同时输入 token 显著更少尤其在1M规模时Full Context 已经out-of-context而 RF-Mem 仍然能够稳定工作。与始终执行 Recollection 的方案相比RF-Mem 保留了“慢回忆”的效果优势同时显著降低延迟例如在32K设定下RF-Mem 的检索时间为5.09ms低于 Recollection 的7.09ms。Method FigurePersonaBench关注的是“能不能把真正相关的个性化记忆检回来”。在这项检索任务上RF-Mem 在不同 embedding backbone 下都表现出很强的稳定性。无论是 Basic Info、Social Info还是更难的 Preference HardRF-Mem 都能保持与最强基线相当甚至更优的 Recall5 和 Recall10。换句话说它并不是只在某一类简单问题上有效而是在不同类型的个人信息检索上都具备更稳的覆盖能力。Method FigureLongMemEval它更强调长程记忆场景下的检索能力。这里可以更清楚地看到 RF-Mem 的核心价值单纯的 Familiarity 虽然快但容易漏掉更深层、跨时间分散的信息纯 Recollection 虽然更强但代价也更高而 RF-Mem 则在两者之间取得了更好的平衡在保持较低延迟的同时持续取得更高或更稳的 Recall 表现。把三张图放在一起看RF-Mem 的价值就非常明确了它不只是“准确率更高”而是系统性地证明了在个性化记忆检索里更好的方向不是一味追求更快而是在必要时让系统具备“慢回忆”的能力。为什么 RF-Mem 的提升更稳定Case FigureRF-Mem 的提升之所以更稳定关键在于它抓住了个性化记忆检索里最容易被忽略的一点用户真正需要的往往不是“最像问题的话”而是“最能解释用户意图的那段记忆”。传统方法通常默认一次 top-K 检索就足够了但个性化场景往往并不是这样。很多问题表面上和多段用户历史都有关联可真正决定回答方向的往往藏在更深层、更分散的记忆线索里。需要记忆检索系统像人类回忆往事一样顺着线索逐步重建上下文把真正关键的证据一点点找出来。。如图 healthcare case 就很典型。用户问的是“Can you suggest some new evidence-based practices to explore for healthcare decision-making?”对传统 Familiarity 来说这个问题会和大量 health-related memory 产生表面相似因此它很容易先抓到 “effective and safe”“complement conventional treatments” 这类片段甚至还可能混入 “I tried a new healthy recipe…” 这样的噪声内容。也就是说快检索虽然能迅速找到“像”的内容但这些内容未必真正决定用户想要什么。问题的关键在于这个用户真正重要的偏好并不只是泛泛的 healthcare interest而是更深层的倾向他更认同conventional medicine也更看重evidence-based practices。这些信息未必会在第一次 top-K 中完整出现却恰恰决定了回答应该朝哪个方向展开。RF-Mem 的不同之处就在于它不会把第一次命中的局部相似当作终点而是会在熟悉度不足时继续启动 Recollection顺着已有线索逐步扩展把 “focus on conventional medicine”“evidence-based practices resonate” 这类更关键的记忆重新串联起来。因此RF-Mem 的稳定性并不是因为它在某个数据集上偶然更强而是因为它更符合个性化记忆检索的本质。它检索到的不再只是“和问题沾边”的内容而是能够真正支撑回答方向的证据链。也正因为如此RF-Mem 的优势不会只体现在某一类 query 上而是能在不同场景下都更稳地找到“真正重要的那段记忆”。RF-Mem 还能和其他方法结合吗可以而且这是论文里一个很亮眼的点。论文专门做了 adaptive study验证 RF-Mem 可以作为一个在线检索层与不同类型的上游或离线模块灵活组合适配 MemoryBank 这类离线 index building 方法RF-Mem 不替代已有 memory index而是在检索阶段提供更灵活的双路径调用适配 HyDE 这类 query expansion 方法即便 query 先被扩展RF-Mem 仍能继续发挥 familiarity-recollection 的动态切换优势适配 Search-o1 这类 iterative RAG 方法面对不断演化的新 queryRF-Mem 也可以作为底层 memory retrieval 模块持续工作。这说明 RF-Mem 不是一个封闭方案而是一个具有模块化与可插拔性的 retrieval controller。总结RF-Mem 最值得关注的地方不只是提出了一个新检索技巧而是它重新定义了个性化记忆检索的思路突破传统“快检索”在检索侧引入一种可以被动态唤起的“慢回忆”。这种视角带来了两个直接收益在熟悉问题上保留高效率在复杂问题上获得更深、更完整的记忆证据。对于个性化 LLM 来说这意味着模型不再只是“把记忆库查一遍”而是真正具备了一种更接近人类的“唤起记忆”能力。RF-Mem 也因此给出了一个很鲜明的判断下一代个性化检索不只是更快地找而是更会想、更会回忆。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相关文章:

ICLR 2026 | 告别Top-K检索!RF-Mem在嵌入空间逐步重构证据链,实现长记忆渐进式唤醒

今天分享一篇来自大连理工大学、香港城市大学、华为和中国科学技术大学的最新工作 RF-Mem,发表于ICLR 2026。这篇工作关注个性化大模型中的一个关键问题:当用户历史越来越长时,模型到底该怎样从海量记忆里,准确找回“此时此刻最相…...

原创分享:长图分割神器,让超长网页和聊天记录轻松打印

你是不是也遇到过这种情况? 1、想把微信里一段长长的聊天记录打印出来留存,结果发现截图太长,打印出来字小得看不清,或者直接被裁掉一大半 2、看到一篇很好的网页文章,想打印成纸质版慢慢看,但网页截图是一…...

闪豆视频下载器 v20260329-B站抖音爱优腾多平台批量下载,画质自选速度快

一款面向电脑端打造的多平台视频批量下载工具,支持 B 站、A 站、抖音、爱奇艺、优酷、腾讯视频等主流内容平台,覆盖范围较广,适合经常需要从不同平台保存视频内容的用户使用。 软件操作流程简单直接,解析和下载过程清晰易懂&#…...

GLM-4.1V-9B-Base保姆级教学:Web界面截图+问题输入框最佳实践

GLM-4.1V-9B-Base保姆级教学:Web界面截图问题输入框最佳实践 1. 认识GLM-4.1V-9B-Base GLM-4.1V-9B-Base是智谱开源的视觉多模态理解模型,专门用于处理图像内容识别、场景描述、目标问答和中文视觉理解任务。这个模型已经完成了Web化封装,可…...

GME-Qwen2-VL-2B-Instruct代码实例:自定义指令前缀‘Find an image that matches...’注入方法

GME-Qwen2-VL-2B-Instruct代码实例:自定义指令前缀‘Find an image that matches...’注入方法 1. 项目背景与价值 在实际的图文匹配场景中,我们经常需要判断一张图片与多个文本描述之间的匹配程度。GME-Qwen2-VL-2B-Instruct作为一个强大的多模态模型…...

通义千问1.5-1.8B-Chat-GPTQ-Int4实战:微信小程序集成AI对话功能开发指南

通义千问1.5-1.8B-Chat-GPTQ-Int4实战:微信小程序集成AI对话功能开发指南 最近在做一个宠物社区的小程序,想加个智能客服功能,让用户能随时问问养宠问题。一开始觉得这事儿挺复杂,得自己搞个大模型服务器,成本高不说&…...

千问3.5-2B实战案例:直播截图实时分析→商品链接提取→竞品价格对比→话术生成

千问3.5-2B实战案例:直播截图实时分析→商品链接提取→竞品价格对比→话术生成 1. 项目背景与价值 在电商直播场景中,运营团队面临三个核心痛点: 直播过程中无法实时监测竞品价格动态人工记录商品信息效率低下且容易出错话术调整滞后于市场…...

二、空间碎片聚类-轨道计算与J2000坐标系实现

1. 整体思路 在空间碎片监测、卫星对地观测等任务中,需要精确知道卫星和空间目标在某一时刻的位置。通常我们使用开普勒轨道六要素(半长轴、偏心率、倾角、升交点赤经、近地点幅角、真近点角)来描述轨道,并通过轨道动力学外推得到任意时刻的位置。本文实现了一套基于J2000…...

终极指南:5分钟学会用Wallpaper Engine下载器轻松获取创意工坊壁纸

终极指南:5分钟学会用Wallpaper Engine下载器轻松获取创意工坊壁纸 【免费下载链接】Wallpaper_Engine 一个便捷的创意工坊下载器 项目地址: https://gitcode.com/gh_mirrors/wa/Wallpaper_Engine 还在为Steam创意工坊里精美的动态壁纸无法直接下载而烦恼吗&…...

Krita插件组件缺失故障排除实战指南

Krita插件组件缺失故障排除实战指南 【免费下载链接】krita-ai-diffusion Streamlined interface for generating images with AI in Krita. Inpaint and outpaint with optional text prompt, no tweaking required. 项目地址: https://gitcode.com/gh_mirrors/kr/krita-ai-…...

3个核心功能让视频创作者轻松提取硬字幕

3个核心功能让视频创作者轻松提取硬字幕 【免费下载链接】video-subtitle-extractor 视频硬字幕提取,生成srt文件。无需申请第三方API,本地实现文本识别。基于深度学习的视频字幕提取框架,包含字幕区域检测、字幕内容提取。A GUI tool for ex…...

GitHub功能全景:从代码创作到企业级方案的技术生态

【导语:GitHub作为全球知名的代码托管平台,提供了丰富多样的功能,涵盖AI代码创作、开发者工作流、应用程序安全等多个领域,还针对不同规模公司、用例和行业提供解决方案,对软件开发行业产生着深远影响。】【GitHub的多…...

商用电子表格:重塑美国经济的隐形力量

电子表格虽不受人喜爱,却是有史以来最成功的应用软件,全球六分之一的人都在使用。它重塑了美国经济,改变了企业的认知与运营方式。不起眼的伟大工具微软 Excel 是最成功的应用软件,全球六分之一的人都在使用它,还决定着…...

Ostrakon-VL-8B本地化部署详解:从OpenClaw社区获取模型到一键启动

Ostrakon-VL-8B本地化部署详解:从OpenClaw社区获取模型到一键启动 最近有不少朋友在问,怎么把社区里那些热门的视觉语言大模型,比如Ostrakon-VL-8B,真正部署到自己的服务器或者云平台上,做成一个随时能用的服务。确实…...

快速体验:Python3.8镜像开箱即用,无需配置直接写代码

快速体验:Python3.8镜像开箱即用,无需配置直接写代码 1. Python3.8镜像简介 Python作为当下最流行的编程语言之一,其3.8版本在性能优化和功能完善方面达到了一个成熟稳定的阶段。这个预配置好的Python3.8镜像,让你可以完全跳过繁…...

intv_ai_mk11 GPU算力优化部署:7B模型在CSDN GPU实例上的高效运行方案

intv_ai_mk11 GPU算力优化部署:7B模型在CSDN GPU实例上的高效运行方案 1. 项目背景与价值 intv_ai_mk11是基于Llama架构的7B参数AI对话模型,专为中文场景优化设计。在CSDN GPU实例上部署这类中型模型时,面临的主要挑战是如何在有限显存条件…...

企业财务系统集成指南:如何用诺诺开放平台API搞定电子发票全流程(从签约到开票)

企业财务系统集成指南:诺诺开放平台电子发票全流程实战 当财务数字化转型成为企业降本增效的刚需,电子发票作为交易闭环的关键环节,其系统集成质量直接影响业务流畅度。本文将带您全景式拆解从商务对接到技术落地的完整链路,避开那…...

AntimicroX完全指南:游戏手柄映射的艺术与科学

AntimicroX完全指南:游戏手柄映射的艺术与科学 【免费下载链接】antimicrox Graphical program used to map keyboard buttons and mouse controls to a gamepad. Useful for playing games with no gamepad support. 项目地址: https://gitcode.com/GitHub_Trend…...

G-Helper终极指南:如何用轻量级工具优化华硕笔记本性能与电池健康

G-Helper终极指南:如何用轻量级工具优化华硕笔记本性能与电池健康 【免费下载链接】g-helper Lightweight, open-source control tool for ASUS laptops and ROG Ally. Manage performance modes, fans, GPU, battery, and RGB lighting across Zephyrus, Flow, TUF…...

HALCON实战:从一维码到复杂OCR,图像增强与运算的工业视觉全流程解析

1. 工业视觉检测的挑战与HALCON解决方案 在自动化产线上,产品表面的一维码、二维码和字符识别是质量控制的关键环节。我曾在某电子元件生产线遇到这样的场景:传送带以每秒3米的速度移动,产品表面既有激光刻印的微小点阵字符,又有喷…...

实战复盘:从帕鲁杯应急响应赛题看企业级安全事件调查全流程

企业级安全事件调查实战指南:从CTF赛题到真实攻防溯源 在网络安全领域,应急响应能力直接决定了企业遭受攻击后的损失程度。去年某大型电商平台因未能及时识别攻击链,导致用户数据持续泄露长达三周,最终造成数亿元的直接损失。这类…...

三步打造个性化Windows任务栏:TranslucentTB效率工具完全指南

三步打造个性化Windows任务栏:TranslucentTB效率工具完全指南 【免费下载链接】TranslucentTB A lightweight utility that makes the Windows taskbar translucent/transparent. 项目地址: https://gitcode.com/gh_mirrors/tr/TranslucentTB 你是否曾觉得Wi…...

【科研必备】Elsevier Tracker:5分钟搞定学术投稿监控的终极解决方案

【科研必备】Elsevier Tracker:5分钟搞定学术投稿监控的终极解决方案 【免费下载链接】Elsevier-Tracker 项目地址: https://gitcode.com/gh_mirrors/el/Elsevier-Tracker 你是否也曾为了追踪Elsevier期刊的审稿状态而反复刷新页面?每天登录系统…...

AI赋能软件测试:基于PyTorch视觉模型实现自动化GUI测试脚本生成效果演示

AI赋能软件测试:基于PyTorch视觉模型实现自动化GUI测试脚本生成效果演示 1. 效果亮点预览 想象一下这样的场景:一个AI系统正在自动测试你的软件界面,它能像人类测试工程师一样"看"懂屏幕上的每个元素,发现那些传统脚本…...

像素幻梦·创意工坊应用场景:独立音乐人专辑封面像素艺术生成流程

像素幻梦创意工坊应用场景:独立音乐人专辑封面像素艺术生成流程 1. 引言:像素艺术在音乐视觉中的价值 在数字音乐时代,专辑封面依然是艺术家表达音乐理念的重要载体。对于独立音乐人而言,独特的视觉风格往往能成为作品的标志性符…...

GME多模态向量模型实战部署:华为云ModelArts一键启动图文检索

GME多模态向量模型实战部署:华为云ModelArts一键启动图文检索 1. 引言:多模态检索的实用价值 想象一下,你正在管理一个大型数字资产库,里面有成千上万的图片和文档。当你想找"去年会议上讨论过的那张数据流程图"时&am…...

基于FPGA的伺服驱动系统:电流环控制与多环路反馈、SVPWM及编码器协议实现的研究

伺服驱动FPGA电流环,包含坐标变换,电流环,速度环,位置环,电机反馈接口,SVPWM,编码器协议,电流环和编码器协议都是FPGA里实现的伺服驱动系统里玩FPGA可不是闹着玩的,尤其是…...

SM4算法在嵌入式平台的轻量化移植与优化实践

1. SM4算法与嵌入式平台适配挑战 SM4作为我国自主设计的商用分组密码标准,在物联网设备安全领域应用广泛。但直接将OpenSSL中的SM4实现移植到STM32等嵌入式平台时,开发者常会遇到三大难题: 代码体积膨胀:OpenSSL的SM4实现依赖大量…...

Qwen-Image-2512图片生成服务:支持多种宽高比,满足不同场景需求

Qwen-Image-2512图片生成服务:支持多种宽高比,满足不同场景需求 1. 引言:为什么宽高比如此重要? 在数字内容创作领域,图片的宽高比往往决定了它的最终用途。一张构图精美的图片,如果比例与展示平台不匹配…...

基于Moondream2的工业质检系统:缺陷检测与分类

基于Moondream2的工业质检系统:缺陷检测与分类 1. 为什么传统质检方式正在被重新思考 产线上的质检员每天要盯着成百上千件产品,眼睛酸涩、注意力下降,漏检率悄悄爬升。一台设备表面划痕只有0.1毫米宽,人眼在连续工作两小时后&a…...