当前位置: 首页 > article >正文

RAG 失效的真正原因,长上下文救不了 RAG

最早大家做 RAG是因为模型上下文太短一次塞不进完整文档只能先检索再把相关片段交给模型回答。后来模型上下文窗口越来越长从 32K、128K 到百万 token很多人开始觉得RAG 可能只是一个过渡方案。只要模型能一次读完几十万字甚至几百万字我们还需要复杂的检索、切块、索引和重排吗Stanford OVAL 最近这篇论文Contexts are Never Long Enough: Structured Reasoning for Scalable Question Answering over Long Document Sets给了一个很冷静的回答需要而且远远不够。因为真实世界的问题不只是“上下文不够长”而是“信息无法被稳定组织、合并和计算”。论文提出的系统叫SLIDERS全称是Scalable Long-document Integration through Decomposed Extraction and Reconciliation System。它的核心观点非常直接不要再让大模型在一堆长文本里硬读而应该先把文档变成结构化数据库再让模型通过 SQL 对数据库进行推理。这篇论文最有意思的地方不是又做了一个 RAG 改进版而是把长文档问答的真正瓶颈讲清楚了RAG 的问题不只是检索不到而是检索到了以后系统仍然需要把大量证据聚合起来。chunk 越多证据越多最后合并推理越困难。论文把这个问题称为Aggregation Bottleneck也就是“聚合瓶颈”。这可能是当前 AI 系统进入真实业务场景时最容易被低估的问题。长上下文并不等于长记忆我们先想一个很普通的工作场景。一个金融分析师要回答“100 家公司哪家公司长期借款最低哪些公司长期借款为零前五大借款公司占总借款比例是多少”这不是一个简单问答。答案可能分散在 100 份财报里每份财报又有几十页相关信息可能出现在资产负债表、附注、债务说明、现金流表或管理层讨论中。有些公司明确写了长期借款有些公司只通过上下文暗示为零有些公司在不同页面给出不同口径有些数值还存在单位、币种、千美元、百万美元的转换问题。你可以把所有文件都塞给一个百万上下文模型吗理论上部分场景可以。但问题是模型即使“看到了”也未必能稳定地把这些信息抽出来、对齐、去重、计算并验证。长上下文解决的是“能不能放进去”不是“能不能精确组织”。这就是 SLIDERS 论文最重要的判断现实世界的文档集合会不断增长任何固定上下文窗口最终都会被超过而且即便暂时没有超过模型在长上下文中聚合分散证据的能力也会下降。论文在引言中指出现实中的金融、医疗、社会科学分析都需要跨多个文档、多个页面合成证据而长上下文推理仍然会受到上下文限制、检索遗漏、远距离证据整合困难、输出不可审计和推理成本高等问题影响。所以真正的问题不是上下文长度而是信息组织方式。一个人读 100 份财报也不会把所有文字都背在脑子里。他会做表格记出处统一单位标注可疑值合并同义公司名最后再用公式计算。换句话说人类做长文档分析时本能上就不是“长上下文推理”而是“结构化工作流”。SLIDERS 做的事情就是把这套工作流系统化。Chunking 不是终点它会制造新的瓶颈RAG 的经典做法是把文档切成 chunk然后检索相关 chunk再把它们交给 LLM 生成答案。这个思路对很多问题有效尤其是答案集中在少数片段里时非常实用。但只要问题需要全局聚合chunking 就会开始暴露问题。假设一个问题要统计 100 个文档中的全部公司债务情况。每个 chunk 可能都能局部抽取出一些信息但最终系统还是要把几百甚至几千条 chunk 级结果合并起来。传统方法通常会把 chunk 输出拼成文本摘要再让 LLM 做最后聚合。问题是这一步本身又变成了一个新的长上下文问题。现有 chunk-based 方法先从不同 chunk 中抽取文本中间状态然后把这些文本证据重新拼接给 LLM导致中间文本随着 chunk 数量增长而增长这等于绕了一圈又回到了上下文窗口限制里。SLIDERS 的做法则不同它把 chunk 输出转成关系数据库让系统在数据库上完成聚合、比较和计算而不是把所有证据重新塞回模型。这就是所谓 aggregation bottleneck。很多 RAG 系统看起来失败在“没检索到”但在真实复杂任务中更常见的失败其实是“检索到了但合不起来”。模型可能找到了相关表格却没统一单位找到了多个页面却没判断哪个值更权威找到了不同公司却没对齐公司名称找到了多个时间点却没区分 fiscal year 和 calendar year找到了局部事实却无法稳定完成全局排序、计数和比例计算。这不是简单增加 top-k 能解决的。top-k 越大证据越多聚合负担反而越重。RAG 的上限往往不是 retrieval而是 aggregation。SLIDERS 的关键转向把文本变成数据库SLIDERS 的技术路线可以概括成一句话把长文档问答从文本推理问题改造成数据库推理问题。它不是让模型直接在长文本中回答而是先把文档拆成局部自包含的 chunk然后让模型从每个 chunk 中抽取结构化数据存入关系数据库。每个字段不仅保存值还保存证据出处、原文 quote 和抽取 rationale。之后系统通过数据 reconciliation 清理重复、冲突和不完整记录最后让 SQL agent 对数据库写查询生成答案。Stanford 项目页也把 SLIDERS 描述为一种面向 ultra-long document QA 的结构化推理框架用关系状态替代拼接文本。完整流程第一步是 contextualized chunking给每个 chunk 保留文档标题、结构层级、页码、表格和章节上下文第二步是 schema induction根据问题自动生成关系数据库 schema第三步是 structured extraction从 chunk 中抽取表格行同时保留 quote 和 rationale第四步是 data reconciliation用 SQL coding agent 清洗数据库第五步是 question answering让模型写 SQL 查询并生成最终答案。这里最关键的是 schema。传统 RAG 的中间状态通常是自然语言摘要这种表示很灵活但也很不稳定。一个 chunk 输出“accounts payable and accrued expenses”另一个 chunk 输出“accounts payable”第三个 chunk 写“current liabilities”模型最后要靠语言理解去判断它们是否指向同一个财务概念。SLIDERS 让模型先为问题生成数据库 schema明确字段名称、数据类型、单位、尺度、归一化规则。论文给出的字段定义包括 field name、semantic description、data type、unit、scale 和 normalization rules例如金额统一成 USD、日期统一成固定格式、数值统一成 thousands 或 millions。这一步非常重要。它把模糊文本变成可计算对象。一旦信息进入数据库很多本来容易出错的问题就不必交给大模型“猜”。排序、计数、过滤、聚合、求平均、算比例、找最大最小这些操作都可以由 SQL 确定性完成。大模型不再需要记住所有证据而是负责生成合适的查询数据库负责保存、组织和计算。这其实是一个很深的系统设计思想LLM 不应该承担所有认知负担。大模型擅长理解语言、生成 schema、抽取语义、写 SQL、解释结果。但它不擅长在几百条碎片证据中稳定计数不擅长手工维护状态不擅长确保单位永远一致也不擅长在长上下文里不漏任何一个关键数值。把这些工作交给数据库才是合理分工。Data Reconciliation 才是这篇论文最有价值的部分如果只是“把文档抽成表”这篇论文还不够新。真正重要的是它加入了data reconciliation也就是数据调和。为什么需要 reconciliation因为每个 chunk 的抽取结果在局部可能都是正确的但全局合起来可能是脏的。同一个公司可能在不同页面被写成 BioLargo Inc、BIOLARGO, INC. 或 BioLargo同一个财务指标可能在资产负债表中以合并口径出现在附注中以拆分口径出现同一个人可能在维基百科不同段落中出现全名、艺名、缩写或别名同一事件可能被不同段落重复描述也可能被多个段落补充不同属性。如果不做 reconciliation数据库只是“局部抽取结果的堆积”不是一个真正可用的全局状态。论文的做法是把每一行都带上 provenance、extraction rationale 和 metadata。然后 reconciliation agent 会根据主键把相关行分组在每个组内做三类操作去重、冲突解决和信息合并。论文第 5 页的表 1 对这三类操作做了清楚定义deduplication 用于合并语义相同或近似相同的行conflict resolution 用于在互相竞争的值之间选择证据最强的值consolidation 用于把互补属性合并成更完整的记录。这一步很像一个严谨的数据分析师在清洗 Excel 表。比如两个页面都提到某公司 accounts payable一个值来自“accounts payable and accrued expenses”另一个值来自附注明细中的“accounts payable”。如果问题问的是 accounts payable系统就不能简单选择更大的数也不能把两个数相加而要看出处和 rationale判断哪个字段真正对应问题。论文用 BioLargo 的例子说明资产负债表中的 1,740 是 accounts payable and accrued expenses 的合计而附注明细中的 1,663 才是 accounts payable 总额。这就是 provenance 的价值。没有出处和理由模型只能猜有了出处和理由系统可以审计、纠错和验证。我认为这是 SLIDERS 最值得关注的地方。很多 AI 系统只追求最终答案看起来回答得很顺但错误很难追踪。SLIDERS 的答案来自数据库数据库中的每个值都有 quote 和 rationale错误分析时可以回到原文检查。论文也指出provenance tracking 增强了 auditability 和 interpretability甚至帮助作者发现了一些 benchmark gold answer 自身的错误。在金融、医疗、法律、科研这些高风险领域可审计性不是附加功能而是系统能不能用的前提。实验结果说明了什么SLIDERS 的实验结果有两个层次。第一个层次是在传统长上下文 benchmark 上比较。FinanceBench、Loong 和 Oolong 的输入长度都在 360K token 以下理论上可以放进 GPT-4.1 这样的强模型上下文窗口。结果 SLIDERS 仍然超过所有 baseline平均准确率 75.56而 GPT-4.1 base model 是 68.69RLM 是 66.46GraphRAG 是 52.87普通 RAG 是 42.77。尤其是在 Oolong 这种强调聚合的任务上SLIDERS 达到 64.67明显高于 GPT-4.1 的 45.56。这说明一个重要事实即使上下文放得下结构化推理仍然有价值。问题不是“能不能读完”而是“能不能稳定聚合”。第二个层次是在超长文档集上测试。论文构建了两个新 benchmarkWikiCeleb100 包含 100 个高访问量名人维基页面总计 3.9M tokensFinQ100 包含 100 家 SEC 上市公司的最新 10-Q 文件总计 36M tokens。传统 GPT-4.1 已经无法直接处理这些输入。SLIDERS 在 WikiCeleb100 上达到 78.91%普通 RAG 只有 31.41%在 FinQ100 上达到 55.22%普通 RAG 只有 5.00%。FinQ100 特别有代表性。它需要跨 100 份财务文件抽取长期借款信息很多公司不直接写“长期借款为零”而是要从上下文中推断。SLIDERS 抽取了 685 行候选数据而 ground truth 只有 105 行这说明原始抽取存在大量重复、冲突和冗余。没有 reconciliation准确率会从 55.22 掉到 35.81在 WikiCeleb100 上去掉 reconciliation 也会从 78.91 掉到 60.50。这进一步证明真正难的不是抽取而是整理。为什么这件事对未来 AI 系统很重要SLIDERS 论文真正值得讨论的地方不只是一个 benchmark 提升而是它代表了一种 AI 系统设计范式。过去我们容易把大模型想象成一个越来越大的脑子。上下文越长记忆越强参数越多能力越强推理越深答案越好。但真实工作流告诉我们智能不只是脑子大还要有外部工具、笔记、表格、索引、验证器和审计机制。一个专业分析师不会把所有材料一股脑塞进脑子里。他会建立表格统一字段记录出处标注不确定项清洗数据再做计算。一个工程师不会靠记忆管理复杂项目他会用 Git、issue、日志、测试、数据库和文档系统。一个科研人员不会把所有论文细节都记在脑子里他会做文献矩阵、实验表格、证据链和版本记录。AI 系统也应该这样。长上下文像短期工作记忆数据库像长期结构化记忆SQL 像确定性推理工具provenance 像引用系统reconciliation 像数据清洗和知识整理。未来强 AI 系统不会只是“一个模型读一切”而更可能是“模型 数据库 工具 结构化状态 审计链”的组合。这和当前 Agent 系统的发展也很一致。Agent 如果要长期工作不能只靠上下文记忆而要把中间状态写进外部环境。代码 Agent 需要文件系统、测试和日志科研 Agent 需要文献库和实验记录金融 Agent 需要结构化财务表医疗 Agent 需要可追溯证据链。SLIDERS 只是把这种思想放在长文档问答中做了一个非常清晰的实现。我觉得它给所有 RAG 系统一个提醒不要只优化 retrieval要认真设计 intermediate representation。也就是说不要只问“取哪些 chunk”还要问“取出来的信息应该变成什么结构”。是自然语言摘要还是实体表是知识图谱还是关系数据库是向量记忆还是 SQL 表是一次性 prompt 上下文还是可复用的结构化状态不同答案决定了系统的上限。RAG 的下一步不是更大的 top-k而是更好的状态管理很多人做 RAG 时会自然地堆模块embedding 换更强的reranker 换更大的top-k 设更多chunk size 调更细再加 query rewrite、multi-hop retrieval、GraphRAG、HyDE、agentic retrieval。它们都有价值但对于需要全局聚合的任务来说这些还不够。因为只要最终仍然把证据塞回 prompt让模型用自然语言合成答案aggregation bottleneck 就还在。SLIDERS 的思路是把中间证据从“文本”变成“状态”。文本是临时的、模糊的、难计算的状态是持久的、结构化的、可查询的。文本适合表达状态适合推理。LLM 负责从文本到状态再从状态到答案中间的保存、计算和合并交给数据库。这可能是未来企业 RAG 的一个重要方向。企业知识库不是网页搜索。它经常涉及合同、财报、病历、流程文件、会议纪要、技术文档、审计报告和项目材料。问题也不只是“某个条款是什么”而是“跨多个项目统计原因”“比较不同季度指标”“找出所有不一致描述”“归纳多个文件中的证据链”。这种任务天然需要结构化状态。所以真正的企业 RAG 不应该只是一个聊天框加向量库而应该更像一个自动数据分析系统它能读文档抽字段建表合并清洗保留证据然后回答问题。这时候大模型不是数据库的替代品而是数据库的接口和自动建模器。这篇论文的边界在哪里当然SLIDERS 也不是万能答案。论文自己也承认它依赖 schema induction因此对能够关系建模的任务更有效对于高度主观、抽象、难以表格化的跨文档推理收益可能有限。它的 pipeline 需要多次 LLM 调用端到端延迟比单次模型调用更高大约 2 到 3 分钟更适合准确性优先的分析任务而不是实时对话。论文还指出FinQ100 上 55% 的准确率仍然不足以支持高风险金融分析的全自动化因此需要 human-in-the-loop verification。这点很重要。SLIDERS 的价值不是宣布“AI 可以完全替代分析师”而是更现实地说明AI 可以把人工分析中的文档阅读、字段抽取、证据整理和 SQL 查询大量自动化但最终高风险场景仍需要人来验证。我反而觉得这种克制让论文更可信。很多 AI 系统最大的问题是把 demo 包装成自动化把生成答案包装成可靠推理。SLIDERS 至少承认系统仍然会错但它让错误更容易被发现因为每个值都有出处每个合并都有 SQL每个答案都可以回到数据库和原文。对于真实业务来说可审计的 55%往往比不可审计的 80% 更有意义。前者可以被人类接管和改进后者可能只是看起来很强。上下文不是记忆结构才是记忆这篇论文最值得记住的一句话不一定是 SLIDERS 的准确率而是标题本身Contexts are Never Long Enough。上下文永远不够长。不是因为模型工程师不够努力而是因为真实世界的信息本来就是无限增长的。企业文档会继续增加财报会继续发布论文会继续积累病历会继续变厚法律文件会继续扩展。你不可能指望一个固定窗口永远装下世界。更重要的是即使能装下也不代表能理解、整理和计算。长上下文解决的是“把信息放进模型”结构化推理解决的是“把信息变成可用状态”。前者像把一整座图书馆搬进房间后者像建立目录、索引、数据库和引用系统。真正的智能分析不是坐在一堆书里凭记忆回答而是知道如何抽取事实、合并证据、验证冲突、计算结果并且在被质疑时能指出每个结论来自哪里。这就是 SLIDERS 给我们的启示未来的 AI 系统不会只是更长上下文的大模型而会是拥有外部结构化记忆的智能系统。模型负责理解语言数据库负责保存状态SQL 负责确定性计算provenance 负责审计reconciliation 负责把碎片事实整理成可靠知识。如果说 RAG 的第一阶段是让模型能从外部知识库里找资料那么下一阶段就是让模型能把资料整理成结构化世界。真正的瓶颈不是 AI 没看到信息。真正的瓶颈是它看到之后能不能把信息整理成一个不会乱的世界。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相关文章:

RAG 失效的真正原因,长上下文救不了 RAG

最早大家做 RAG,是因为模型上下文太短,一次塞不进完整文档,只能先检索,再把相关片段交给模型回答。后来,模型上下文窗口越来越长,从 32K、128K 到百万 token,很多人开始觉得:RAG 可能…...

如何通过高效的能耗管理系统实现园区智能化与可持续发展?

高效能耗管理系统助力园区智能化发展 园区智能化的实现依赖于高效、利用该系统、园区能够实时收集分析能耗数据,形成精准的用能画像。这种数据驱动的管理方式使园区在资源配置上更加灵活。智能传感器和物联网技术的结合,帮助实时监控设备状态、自动识别能…...

告别Arduino IDE:在Visual Studio Code中搭建高效Arduino开发环境

1. 为什么选择VS Code开发Arduino项目 第一次接触Arduino开发时,大多数人都是从官方Arduino IDE开始的。这个简单的开发环境确实能快速上手,但随着项目复杂度增加,它的局限性就越来越明显:代码补全功能弱、项目管理混乱、调试工具…...

构建企业的知识图谱

在智能制造与大模型时代,构建制造企业的工业知识图谱(Industrial Knowledge Graph, IKG),是将企业沉淀在老师傅头脑中、纸面技术手册、PLM图纸以及MES日志中的“隐性知识”,转化为 AI 和工业智能体(Industr…...

ElevenLabs声音库调优秘技:如何用API+Prompt工程将TTS自然度提升67%(附2024最新声纹参数表)

更多请点击: https://intelliparadigm.com 第一章:ElevenLabs声音库资源推荐 ElevenLabs 提供了业界领先的高质量语音合成服务,其声音库(Voice Library)涵盖多语种、多风格的预训练语音模型,适用于播客、有…...

2026 汽车运动权威盘点:历史悠久、级别最高的标杆赛事解读

在汽车产业飞速发展的今天,汽车运动早已超越单纯的竞技比拼,成为彰显工业实力、传递汽车文化、连接产业与消费者的重要桥梁。2026 年,全球汽车运动市场持续升温,国际顶级赛事与国内标杆赛事同频共振、百花齐放。而那些历史悠久、级…...

【NotebookLM考古学研究辅助实战指南】:20年文博技术专家亲授3大冷启动技巧,让田野笔记秒变学术论文

更多请点击: https://intelliparadigm.com 第一章:NotebookLM考古学研究辅助的范式革命 NotebookLM 作为 Google 推出的基于文档理解的 AI 助手,正悄然重塑考古学研究的信息处理范式。传统考古工作依赖大量手写笔记、田野报告、碳十四测年数…...

3步完成NCM转MP3:网易云音乐格式转换终极指南

3步完成NCM转MP3:网易云音乐格式转换终极指南 【免费下载链接】ncmdump 项目地址: https://gitcode.com/gh_mirrors/ncmd/ncmdump 你是否曾为网易云音乐下载的NCM格式文件无法在其他设备播放而烦恼?这款开源NCMDump工具为你提供完美的解决方案&a…...

如何快速集成Miniblink49:轻量级浏览器内核的终极指南

如何快速集成Miniblink49:轻量级浏览器内核的终极指南 【免费下载链接】miniblink49 a lighter, faster browser kernel of blink to integrate HTML UI in your app. 一个小巧、轻量的浏览器内核,用来取代wke和libcef 项目地址: https://gitcode.com/…...

ChatGPT联网功能深度调优手册(2024实测版):从失效到秒响应的8大关键参数设置

更多请点击: https://intelliparadigm.com 第一章:ChatGPT联网搜索功能失效的典型归因分析 ChatGPT 的联网搜索能力(如通过 Bing 或插件调用实时 Web API)并非内置原生特性,而是依赖外部服务集成与用户端配置协同生效…...

JetBrains IDE试用期重置工具:30天免费试用无限续杯指南

JetBrains IDE试用期重置工具:30天免费试用无限续杯指南 【免费下载链接】ide-eval-resetter 项目地址: https://gitcode.com/gh_mirrors/id/ide-eval-resetter 你是否遇到过JetBrains IDE试用期到期,却还没准备好购买许可证的困扰?i…...

Git Hooks与代码质量左移:self-review工具实战指南

1. 项目概述:从“自我审查”到“代码质量守护者”最近在GitHub上看到一个挺有意思的项目,叫motiful/self-review。光看名字,你可能会觉得这又是一个关于代码审查流程或者团队协作规范的工具。但点进去仔细研究后,我发现它的定位非…...

现代安全监控系统构建指南:从IPVS架构到智能分析实战

1. 项目概述:从“想要”到“拥有”,安全监控系统的核心价值“安华高科技给你想要的安全监控系统!”——这个标题听起来像是一句承诺,但背后其实是一个复杂的系统工程。作为一名在安防行业摸爬滚打了十几年的从业者,我见…...

Flyway实战:从零到一构建数据库版本管理流水线

1. 为什么你的项目需要Flyway 第一次接触数据库版本管理这个概念时,我正面临一个典型的开发困境:团队里有5个开发人员在同时修改数据库结构,每次发布新版本都像在玩俄罗斯轮盘赌——永远不知道谁会忘记执行哪个SQL脚本。直到生产环境出现数据…...

在Taotoken控制台中查看与分析API用量明细的实际操作

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 在Taotoken控制台中查看与分析API用量明细的实际操作 对于使用大模型API进行开发的团队或个人而言,清晰、准确地掌握AP…...

AWPLC与AWTK MVVM实战:零代码实现嵌入式走马灯控制与界面开发

1. 项目概述与核心思路作为一名在嵌入式领域摸爬滚打了十多年的老工程师,我见过太多项目因为GUI开发和逻辑控制分离而陷入泥潭。前端UI要调,后端逻辑要改,两边工程师还得不断对齐接口,效率低下不说,出点bug排查起来更是…...

Wwise音频处理完整指南:从游戏音效解包到个性化替换的终极方案

Wwise音频处理完整指南:从游戏音效解包到个性化替换的终极方案 【免费下载链接】wwiseutil Tools for unpacking and modifying Wwise SoundBank and File Package files. 项目地址: https://gitcode.com/gh_mirrors/ww/wwiseutil 还在为游戏音频文件无法编辑…...

【权威发布】Midjourney V6结构提示词标准白皮书(含官方未公开的4类语法优先级矩阵与37个避坑节点)

更多请点击: https://intelliparadigm.com 第一章:Midjourney V6结构提示词的核心演进与范式变革 Midjourney V6 标志着生成式图像模型在语义理解与结构化表达上的重大跃迁。其提示词(prompt)系统不再仅依赖关键词堆叠&#xff0…...

AI智能体技能开发实战:从工具调用到安全部署全解析

1. 项目概述:当AI学会“上网”与“思考”最近在折腾AI应用开发的朋友,估计都绕不开一个核心问题:如何让大语言模型(LLM)不只是个“聊天高手”,更能成为一个能独立完成复杂任务的“智能体”。你肯定遇到过&a…...

HX‑01 USB 音频编码模块:全行业通用的稳定音频核心解决方案

HX‑01 USB 音频编码模块凭借免驱即用、高清语音处理、宽温稳定运行、强抗干扰设计、灵活配置模式的核心优势,不仅在矿山行业构建了可靠的语音通讯体系,更能适配安防监控、智能楼宇、教育会议、工业自动化、机器人设备、医疗健康等多行业场景&#xff0c…...

【RS-M1系列-2】揭秘螺旋扫描:RS-M1如何重塑点云数据格局

1. 螺旋扫描:RS-M1的核心创新点 第一次拿到RS-M1的点云数据时,我就被它独特的螺旋扫描模式惊艳到了。与传统机械旋转式雷达那种"转圈圈"的扫描方式完全不同,RS-M1的5个激光通道通过一面振镜实现了螺旋状的扫描轨迹。这就像用五支笔…...

VSCode搭配MinGW-w64打造Windows下C++开发环境:从安装、配置到调试一条龙

VSCode搭配MinGW-w64打造Windows下C开发环境:从安装、配置到调试一条龙 在Windows平台上进行C开发,选择合适的工具链往往能事半功倍。虽然Visual Studio提供了完整的解决方案,但许多开发者更青睐轻量级、高度可定制的VSCode编辑器。本文将带你…...

5分钟搞定安卓APK签名:SignatureTools图形化签名工具终极指南

5分钟搞定安卓APK签名:SignatureTools图形化签名工具终极指南 【免费下载链接】SignatureTools 🎡使用JavaFx编写的安卓Apk签名&渠道写入工具,方便快速进行v1&v2签名。 项目地址: https://gitcode.com/gh_mirrors/si/SignatureTool…...

3步解决AKShare金融数据接口stock_zh_a_spot_em异常:完整数据获取指南

3步解决AKShare金融数据接口stock_zh_a_spot_em异常:完整数据获取指南 【免费下载链接】aktools AKTools is an elegant and simple HTTP API library for AKShare, built for AKSharers! 项目地址: https://gitcode.com/gh_mirrors/ak/aktools AKTools作为一…...

龙芯平台桥片与GPU技术突破:从硬件瓶颈到均衡体验的实践指南

1. 项目概述:一次迟来的正名“桥片和GPU,已然不是龙芯的短板!”——这个标题,对于长期关注国产CPU发展的从业者或爱好者来说,无异于一声响亮的宣告。在过去很长一段时间里,当人们讨论龙芯处理器时&#xff…...

别再死记硬背GPIO寄存器了!用STM32 HAL库和CubeMX快速实现LED流水灯与按键控制

解放双手:用STM32CubeMX和HAL库玩转GPIO控制 在嵌入式开发的世界里,GPIO控制就像学习编程时的"Hello World"一样基础而重要。但有多少开发者还在为记忆繁琐的寄存器配置而头疼?当项目周期压缩到以天为单位计算时,我们是…...

MAX-M8C-0,支持辅助定位的超紧凑GNSS模块

简介今天我要向大家介绍的是 u-blox 的并发GNSS模块——MAX-M8C-0。这是一款专为成本敏感型应用设计、具有超低功耗的超紧凑高性能模块。该模块基于高性能 u-blox M8 GNSS引擎,支持并发接收多达3个GNSS系统(GPS/Galileo GLONASS或BeiDou)&am…...

AMD Ryzen嵌入式处理器在COM Express模块上的高性能应用与设计实践

1. 项目概述:当COM Express遇上AMD Ryzen,一次嵌入式设计的性能跃迁 在嵌入式系统设计领域,COM Express(Computer-On-Module Express)模块因其标准化、高集成度和易于扩展的特性,一直是构建紧凑型、高性能嵌…...

LILY-W131-00B,支持USB与SDIO双高速主机接口的IEEE 802.11b/g/n模块

简介今天我要向大家介绍的是 u-blox 的前端模块——LILY-W131-00B。这是一款专为高要求工业设备及蜂窝网络回传应用而设计的超紧凑高性价比模块。该模块基于高性能 NXP 88W8801 芯片组,支持 IEEE 802.11b/g/n 标准;具备外部天线引脚,支持天线…...

基于加速度计与舵机的自由落体检测滑翔机设计与实现

1. 项目概述:一个基于自由落体检测的自动减速滑翔机如果你对嵌入式硬件、传感器应用或者简单的物理模型感兴趣,那么这个项目绝对能让你玩上一下午。它的核心想法非常直观:我们利用一块内置了加速度计的微控制器板(Circuit Playgro…...