当前位置: 首页 > article >正文

你的Agent为什么总是“胡言乱语”?问题出在哪?

你的Agent为什么总是“胡言乱语”?问题出在哪?关键词:大语言模型 Agent 幻觉 检索增强生成 思维链 约束提示工程 对齐摘要:本文从“Agent胡言乱语”这一日常用户痛点切入,像剥洋葱一样一层一层揭开问题的本质——大语言模型的“幻觉(Hallucination)”与Agent构建链路中各环节的偏差叠加。文章先通过生活中的“外卖点单员幻觉”故事引入核心概念,再拆解幻觉产生的底层原理(包括LLM的概率生成机制、训练数据的局限性等)、Agent构建全链路的偏差源(意图理解偏差、工具调用偏差、知识整合偏差等),然后用Mermaid流程图梳理Agent从“感知需求”到“输出结果”的完整过程,用Python代码实现一个简单的带幻觉检测的RAG(检索增强生成)Agent,用数学模型量化分析幻觉发生的概率,最后结合实际场景(客服Agent、法律Agent、教育Agent)给出解决方案,提出未来的发展方向与挑战,让读者从“只会抱怨Agent胡言乱语”变成“能定位问题、甚至能动手优化简单Agent”的入门级AI开发者。背景介绍目的和范围目的让普通用户明白:“Agent胡言乱语”不是“AI故意骗人”,而是有技术原因的,以后遇到这类问题可以用简单的方法(比如给Agent加明确的限定词、让它列出参考来源)初步排查;让入门级AI开发者掌握:Agent构建全链路中可能导致“胡言乱语”的所有环节,能定位具体的问题点,还能动手实现一个带基础幻觉检测的RAG Agent;让中高级AI从业者思考:目前主流的幻觉缓解方法有哪些局限性,未来如何从“模型对齐”“架构优化”“工具链完善”三个维度系统性地解决Agent的“胡言乱语”问题。范围本文的研究范围主要是基于大语言模型(LLM)的任务型Agent——这类Agent不是“只会聊天的机器人”,而是能帮用户完成具体任务的助手,比如订机票、查资料、写代码、做法律咨询。本文不讨论的内容:多模态Agent(比如能处理图片、视频的Agent)的“胡言乱语”问题;专用小模型Agent(比如只针对某个特定工厂的生产数据训练的Agent)的“胡言乱语”问题;生成式AI艺术(比如Midjourney、Stable Diffusion)的“画错细节”问题——虽然这类问题也常被称为“幻觉”,但原理和基于LLM的任务型Agent完全不同。预期读者普通AI用户:经常使用ChatGPT、Claude、豆包等工具,遇到过“Agent胡言乱语”的情况,想知道为什么;入门级AI开发者:刚接触大语言模型,想自己动手做一个Agent,怕遇到“胡言乱语”的问题;中高级AI从业者:已经在做Agent相关的项目,想系统性地优化Agent的输出质量;AI爱好者:对大语言模型的原理和Agent的构建感兴趣,想学习一些专业知识。文档结构概述本文的结构像“看病的流程”:挂诊台(背景介绍):先确认“患者”是谁(任务型Agent),“病情”是什么(胡言乱语),“看病的目的”是什么;问诊室(核心概念与联系):用生活中的故事引出“幻觉”“意图理解”“工具调用”“知识整合”等核心概念,解释它们之间的关系,给出文本示意图和Mermaid架构图;检查室(核心算法原理 具体操作步骤):先检查“大脑(LLM)”为什么会产生幻觉——概率生成机制、训练数据的局限性,再检查“手脚(工具链)”“眼睛(感知系统)”“嘴巴(输出系统)”为什么会出问题——意图理解偏差、工具调用偏差、知识整合偏差,然后给出“缓解幻觉”“定位偏差”的具体操作步骤;检验科(数学模型和公式 详细讲解 举例说明):用数学模型量化分析幻觉发生的概率,比如“LLM生成下一个token的概率公式”“幻觉检测的准确率公式”;药房(项目实战:代码实际案例和详细解释说明):给读者一个“药方”——用Python实现一个带基础幻觉检测的RAG Agent,包括环境搭建、源代码实现、代码解读、测试用例;康复科(实际应用场景):告诉读者“这个药方怎么用在不同的病人身上”——客服Agent、法律Agent、教育Agent的具体优化方案;体检中心(工具和资源推荐):给读者推荐一些“体检工具”——幻觉检测工具、RAG框架、提示工程工具;未来诊室(未来发展趋势与挑战):告诉读者“未来的医生会怎么治这个病”——模型对齐技术的发展、Agent架构的优化、工具链的完善,以及可能遇到的挑战;出院小结(总结:学到了什么?):总结本文的主要内容,再次用通俗易懂的语言强调核心概念;家庭作业(思考题:动动小脑筋):给读者留一些“家庭作业”,鼓励他们进一步思考和应用所学知识;在线问答(附录:常见问题与解答):解答读者可能遇到的常见问题;参考书目(扩展阅读 参考资料):给读者推荐一些“专业书籍”和“论文”。术语表核心术语定义Agent(智能体):能感知环境、做出决策、执行动作、完成特定任务的计算机程序——本文主要指基于大语言模型的任务型Agent;幻觉(Hallucination):大语言模型或Agent生成的听起来合理、但实际上不符合事实、没有依据的内容——比如Agent告诉用户“2024年巴黎奥运会的吉祥物是一只猫”,但实际上2024年巴黎奥运会的吉祥物是“弗里吉”(Phryge);大语言模型(LLM):基于Transformer架构,用海量文本数据训练出来的,能理解和生成人类语言的概率模型——比如GPT-4、Claude 3、文心一言、通义千问;检索增强生成(RAG):一种缓解LLM幻觉的方法——先从知识库中检索出与用户问题相关的文档,再让LLM基于这些文档生成答案;思维链(Chain of Thought, CoT):一种提示工程方法——让LLM在生成最终答案之前,先一步步地思考问题的解决过程,这样可以提高答案的准确性;约束提示工程:一种提示工程方法——给LLM加一些明确的限定词,比如“只能用知识库中的内容回答”“如果不知道答案,就说‘我不知道’”;对齐(Alignment):让大语言模型或Agent的行为符合人类的价值观、意图和目标——比如让Agent不要生成有害的内容,不要胡言乱语。相关概念解释Token(词元):大语言模型处理文本的基本单位——可以是一个字、一个词、一个标点符号,或者它们的组合;Transformer架构:大语言模型的核心架构——由编码器(Encoder)和解码器(Decoder)组成,或者只有解码器(比如GPT系列),或者只有编码器(比如BERT系列);注意力机制(Attention Mechanism):Transformer架构的核心——让模型在处理某个词元的时候,能够关注到文本中其他相关的词元;提示工程(Prompt Engineering):通过设计合适的提示词(Prompt),来引导大语言模型生成符合要求的内容;知识库(Knowledge Base):存储结构化或非结构化知识的数据库——比如维基百科、企业的内部文档、法律法规库;工具调用(Tool Calling):让大语言模型调用外部工具(比如搜索引擎、计算器、天气API、订机票API)来获取信息或执行动作;幻觉检测(Hallucination Detection):检测大语言模型或Agent生成的内容是否符合事实、是否有依据的技术。缩略词列表缩略词英文全称中文全称LLMLarge Language Model大语言模型Agent-智能体RAGRetrieval-Augmented Generation检索增强生成CoTChain of Thought思维链Token-词元APIApplication Programming Interface应用程序编程接口NLPNatural Language Processing自然语言处理MMLUMassive Multitask Language Understanding大规模多任务语言理解GSM8KGrade School Math 8K小学数学8K题数据集核心概念与联系故事引入:外卖点单员的“幻觉”假设你住在北京朝阳区,今天晚上想吃火锅,于是给你家楼下的“张记火锅外卖点单员”小李发了一条微信:“小李,帮我订一份你们家的双人火锅套餐,不要辣,不要香菜,不要葱花,送到我家——对了,我家地址是北京市朝阳区望京SOHO T3-1201室,50分钟内送到可以吗?”小李收到微信后,给你回了一条消息:“好的王总,已经帮您订好了双人麻辣火锅套餐,加了两份香菜两份葱花,送到您家北京市海淀区中关村软件园1号楼-101室,预计30分钟内送到!”你看到这条消息后,是不是特别生气?——小李犯了几个错误:把你的姓氏写错了:你明明是“李总”(假设),小李写成了“王总”;把套餐的口味写错了:你明明说“不要辣”,小李写成了“麻辣”;把套餐的配菜写错了:你明明说“不要香菜不要葱花”,小李写成了“加了两份香菜两份葱花”;把地址写错了:你明明说“北京市朝阳区望京SOHO T3-1201室”,小李写成了“北京市海淀区中关村软件园1号楼-101室”;把送达时间写错了:你明明说“50分钟内送到”,小李写成了“30分钟内送到”。为什么小李会犯这么多错误呢?——你可能会想:小李太粗心了:没仔细看你的微信;小李记忆力不好:记不住你说的那么多要求;小李对业务不熟悉:不知道你们家的地址;小李故意的:想报复你上次投诉他送慢了。但如果小李是一个基于大语言模型的外卖点单Agent呢?——他犯这些错误的原因就不是“粗心”“记忆力不好”“业务不熟悉”“故意的”,而是有技术原因的:把姓氏写错了:可能是Agent的“意图理解模块”出了问题——没识别出你是“李总”,而是从训练数据中随机选了一个常见的姓氏“王总”;把套餐的口味和配菜写错了:可能是Agent的“幻觉模块”出了问题——训练数据中“双人火锅套餐”通常是“麻辣”的,通常会“加香菜加葱花”,所以Agent就“想当然”地生成了这些内容;把地址写错了:可能是Agent的“记忆模块”出了问题——或者Agent根本没有“记忆模块”,而是从训练数据中随机选了一个常见的地址“北京市海淀区中关村软件园1号楼-101室”;把送达时间写错了:可能是Agent的“工具调用模块”出了问题——没调用外部的“配送时间估算API”,而是从训练数据中随机选了一个常见的送达时间“30分钟内送到”。你看,Agent的“胡言乱语”和人类的“犯错误”虽然表现形式相似,但本质原因完全不同——人类的“犯错误”可能是因为“粗心”“记忆力不好”“情绪不好”,而Agent的“胡言乱语”是因为技术上的局限性,比如“概率生成机制”“训练数据的局限性”“架构设计的不合理性”。接下来,我们就用这个“外卖点单员的幻觉”故事,来引出本文的核心概念。核心概念解释:像给小学生讲故事一样核心概念一:什么是基于LLM的任务型Agent?生活中的例子你可以把基于LLM的任务型Agent想象成一个**“超级智能的机器人秘书”**——这个秘书有几个特点:会听人话:能听懂你说的中文、英文、日文等各种语言;会想问题:能一步步地思考问题的解决过程;会用工具:能用计算器算数学题,能用搜索引擎查资料,能用天气API查明天的天气,能用订机票API订机票;会记东西:能记住你之前说过的话,比如你的地址、你的口味、你的生日;会做事情:能帮你完成具体的任务,比如订火锅外卖、写邮件、安排日程、辅导孩子写作业。但这个“超级智能的机器人秘书”也有一个缺点——有时候会“胡言乱语”,比如告诉你“2024年巴黎奥运会的吉祥物是一只猫”,或者帮你订了一份“麻辣火锅套餐加香菜加葱花”。专业定义基于LLM的任务型Agent是一种以大语言模型为核心大脑,结合感知系统、记忆系统、工具系统、决策系统、执行系统、输出系统构建的,能感知环境、理解用户意图、调用外部工具、整合多源信息、做出合理决策、执行特定动作、完成用户指定任务的计算机程序。核心概念二:什么是Agent的“胡言乱语”?——幻觉的定义与分类生活中的例子你可以把Agent的“胡言乱语”想象成一个“爱吹牛的小朋友”——这个小朋友有几个特点:说的话听起来很合理:比如他告诉你“我昨天去月球上玩了,还摘了一颗星星回来”——听起来好像真的一样,但实际上根本不可能;说的话没有事实依据:比如他告诉你“我们班的小明数学考了100分”——但实际上小明数学只考了50分;说的话前后矛盾:比如他先告诉你“我今年8岁”,然后又告诉你“我去年10岁”。专业定义Agent的“胡言乱语”在学术上被称为**“幻觉(Hallucination)”——是指Agent生成的听起来语法正确、逻辑连贯、符合人类语言习惯,但实际上不符合客观事实、没有可靠的知识依据、或者与用户提供的上下文/Agent的记忆/外部工具返回的结果相矛盾的内容**。幻觉的分类根据幻觉的来源,我们可以把Agent的幻觉分为三类:LLM原生幻觉:由Agent的核心大脑——大语言模型本身产生的幻觉,比如Agent告诉你“2024年巴黎奥运会的吉祥物是一只猫”;输入偏差幻觉:由用户提供的上下文不清晰、不完整、有歧义,或者Agent的感知系统理解错了用户的意图产生的幻觉,比如你说“帮我订一份火锅套餐”,但没说清楚是“单人”还是“双人”,是“麻辣”还是“不辣”,Agent就“想当然”地帮你订了一份“双人麻辣火锅套餐”;整合偏差幻觉:由Agent的记忆系统、工具系统、决策系统、整合系统产生的幻觉,比如Agent从知识库中检索出了两篇文档,一篇说“2024年巴黎奥运会的吉祥物是弗里吉”,另一篇说“2024年巴黎残奥会的吉祥物也是弗里吉”,但Agent整合的时候出错了,告诉你“2024年巴黎奥运会的吉祥物有两个,一个是弗里吉,一个是一只猫”。根据幻觉的严重程度,我们可以把Agent的幻觉分为两类:轻度幻觉:对用户的任务影响不大的幻觉,比如Agent把你的姓氏写错了,或者把送达时间写错了5分钟;重度幻觉:对用户的任务影响很大,甚至会给用户造成损失的幻觉,比如Agent帮你订了一份“双人麻辣火锅套餐加香菜加葱花”送到了错误的地址,或者Agent告诉你“这个药物可以治疗癌症”,但实际上这个药物只是一个保健品。核心概念三:什么是概率生成机制?——LLM产生幻觉的根本原因之一生活中的例子你可以把大语言模型的概率生成机制想象成一个**“猜字谜游戏”**——这个游戏的规则是这样的:给你看一句话的前几个字,比如“今天天气真____”;让你从一个“字库”(里面有所有的中文汉字、标点符号、英文单词等)中选一个最有可能的字填在横线上;填好之后,再把你填的字加进去,变成“今天天气真好____”,然后再让你选下一个最有可能的字;重复这个过程,直到你觉得这句话已经说完了。在这个游戏中,你会怎么选呢?——你可能会选“好”“热”“冷”“晴朗”等常见的字,因为这些字出现在“今天天气真____”后面的概率最高;你不太可能选“猫”“狗”“桌子”“椅子”等不常见的字,因为这些字出现在“今天天气真____”后面的概率最低。大语言模型的概率生成机制和这个“猜字谜游戏”几乎一模一样——唯一的区别是:大语言模型的“字库”更大(里面有几千万甚至几亿个token),大语言模型选字的依据是“海量文本数据的统计规律”,而不是“人类的常识”。专业定义大语言模型的概率生成机制是指:大语言模型在生成文本的时候,是一个token一个token地生成的——每生成一个token,模型都会根据之前生成的所有token(包括用户输入的上下文),从一个预定义的词表(Vocabulary)中计算出每个token出现的概率,然后根据概率选择一个token(可以是“选概率最高的token”,也可以是“根据概率随机选一个token”),再把这个token加进去,继续生成下一个token,直到生成一个“结束标记(EOS Token)”为止。用数学公式表示的话,就是:P(w1,w2,…,wn)=∏i=1nP(wi∣w1,w2,…,wi−1) P(w_1, w_2, \dots, w_n) = \prod_{i=1}^n P(w_i | w_1, w_2, \dots, w_{i-1})P(w1​,w2​,…,wn​)=i=1∏n​P(wi​∣w1​,w2​,…,wi−1​)其中:w1,w2,…,wnw_1, w_2, \dots, w_nw1​,w2​,…,wn​是模型生成的nnn个token;P(wi∣w1,w2,…,wi−1)P(w_i | w_1, w_2, \dots, w_{i-1})P(wi​∣w1​,w2​,…,wi−1​)是模型在已经生成了w1,w2,…,wi−1w_1, w_2, \dots, w_{i-1}w1​,w2​,…,wi−1​的情况下,生成wiw_iwi​的概率;∏i=1n\prod_{i=1}^n∏i=1n​是连乘符号,表示把所有的概率乘起来。概率生成机制为什么会导致幻觉?概率生成机制导致幻觉的原因主要有三个:模型没有“常识”,只有“统计规律”:比如模型在训练数据中看到“双人火锅套餐”通常是“麻辣”的,通常会“加香菜加葱花”,所以当你说“帮我订一份双人火锅套餐”的时候,模型就会根据“统计规律”生成“麻辣”“加香菜加葱花”,即使你没说;模型会“编造”token来让文本更连贯:比如模型在生成“2024年巴黎奥运会的吉祥物是____”的时候,如果训练数据中关于“2024年巴黎奥运会的吉祥物”的信息不够多,或者模型没记住,模型就会“编造”一个常见的吉祥物(比如“一只猫”)来让文本更连贯;模型的“记忆”是有限的:比如模型在训练数据中看到了“2024年巴黎奥运会的吉祥物是弗里吉”,但当你问它的时候,模型可能“忘”了,或者“记错”了,就会生成错误的内容。核心概念四:什么是检索增强生成(RAG)?——缓解LLM原生幻觉的“特效药”之一生活中的例子你可以把检索增强生成(RAG)想象成一个“带参考书的考试”——这个考试的规则是这样的:给你发一张试卷,上面有一些问题;给你发一堆参考书,里面有所有问题的答案;你可以先翻参考书,找到与问题相关的内容;然后再根据参考书里的内容回答问题;要求:只能用参考书里的内容回答问题,如果参考书里没有答案,就说“我不知道”。在这个考试中,你会不会“胡言乱语”?——大概率不会,因为你有参考书作为依据;即使你“忘”了某个知识点,你也可以翻参考书找到答案。检索增强生成(RAG)和这个“带参考书的考试”几乎一模一样——唯一的区别是:RAG的“试卷”是用户的问题,RAG的“参考书”是知识库,RAG的“考生”是大语言模型。专业定义检索增强生成(RAG)是一种结合了信息检索(Information Retrieval, IR)和自然语言生成(Natural Language Generation, NLG)的技术——它的核心思想是:先从一个结构化或非结构化的知识库中检索出与用户问题相关的 top-k 个文档(或文档片段),然后将这些检索到的文档作为“上下文”(Context),和用户的问题一起输入给大语言模型,让大语言模型基于这些检索到的文档生成答案。RAG的主要作用是:缓解LLM的原生幻觉:给LLM提供“可靠的知识依据”,让LLM不要“编造”内容;更新LLM的知识:LLM的训练数据是“静态”的,比如GPT-4的训练数据截止到2023年10月,而RAG的知识库是“动态”的,可以随时更新,所以RAG可以让LLM回答“训练数据之后的问题”,比如“2024年巴黎奥运会的金牌榜排名第一的国家是哪个?”;保护用户的隐私:如果用户的问题涉及到隐私信息(比如企业的内部文档、个人的医疗记录),可以把这些信息存储在本地的知识库中,不用上传给LLM的服务商,从而保护用户的隐私。核心概念五:什么是思维链(CoT)?——缓解LLM逻辑错误的“特效药”之一生活中的例子你可以把思维链(Chain of Thought, CoT)想象成一个“做数学题的时候写解题步骤”——比如你做一道小学数学题:“小明有5个苹果,送给小红2个,又买了3个,请问小明现在有几个苹果?”如果你直接写答案“6个”,老师可能会问你“你是怎么算出来的?”;但如果你写解题步骤:小明原来有5个苹果;送给小红2个,剩下的苹果数是:5 - 2 = 3个;又买了3个,现在的苹果数是:3 + 3 = 6个;所以小明现在有6个苹果。老师不仅会给你满分,还会夸你“解题思路清晰”。思维链(CoT)和这个“做数学题的时候写解题步骤”几乎一模一样——唯一的区别是:CoT是让大语言模型在生成最终答案之前,先一步步地思考问题的解决过程,而不是让学生写解题步骤。专业定义思维链(Chain of Thought, CoT)是一种提示工程方法——它的核心思想是:在给大语言模型的提示词中,加入一些“示例(Example)”,这些示例包含“问题”和“一步步的解题步骤”,或者直接在提示词中要求大语言模型“一步步地思考问题的解决过程,然后再给出最终答案”。CoT的主要作用是:提高LLM的逻辑推理能力:比如在做数学题、逻辑题、编程题的时候,CoT可以让LLM的准确率提高很多;缓解LLM的整合偏差幻觉:比如在整合多源信息的时候,CoT可以让LLM一步步地分析每个信息的可靠性,然后再整合出最终的答案;提高LLM输出的可解释性:比如用户可以通过LLM的“解题步骤”,知道LLM是怎么得出最终答案的,如果答案有问题,用户也可以定位到具体的问题点。核心概念六:什么是约束提示工程?——缓解Agent所有幻觉的“万能药”之一生活中的例子你可以把约束提示工程想象成一个**“给小朋友定规矩”**——比如你给你家的小朋友定了以下几个规矩:只能说真话,不能说假话;如果不知道答案,就说“我不知道”,不能编造;说话的时候要注意礼貌;不能说脏话。如果你家的小朋友遵守这些规矩,他会不会“胡言乱语”?——大概率不会。约束提示工程和这个“给小朋友定规矩”几乎一模一样——唯一的区别是:约束提示工程是给大语言模型或Agent定“规矩”,而不是给小朋友定规矩。专业定义约束提示工程是一种提示工程方法——它的核心思想是:在给大语言模型或Agent的提示词中,加入一些明确的“约束条件(Constraints)”,来引导大语言模型或Agent生成符合要求的内容。常见的约束条件有:内容真实性约束:比如“只能用知识库中的内容回答问题,如果知识库中没有答案,就说‘我不知道’”;内容完整性约束:比如“回答问题的时候要包含所有的关键点,不能遗漏”;内容简洁性约束:比如“回答问题的时候要简洁明了,不要说废话”;内容格式约束:比如“回答问题的时候要用JSON格式,或者用表格格式”;内容语气约束:比如“回答问题的时候要语气友好,或者要语气正式”。核心概念之间的关系:用小学生能理解的比喻整体关系:Agent像一个“乐队”你可以把基于LLM的任务型Agent想象成一个**“乐队”**——这个乐队的成员有:主唱(大语言模型,LLM):乐队的核心,负责“唱歌”(生成最终答案);鼓手(感知系统):负责“听观众的需求”(理解用户的意图);吉他手(记忆系统):负责“记住之前唱过的歌”(记住用户之前说过的话);键盘手(工具系统):负责“用乐器伴奏”(调用外部工具);贝斯手(决策系统):负责“决定唱什么歌,怎么唱”(决定用什么工具,怎么整合信息);音响师(输出系统):负责“把歌声传递给观众”(把最终答案传递给用户);调音师(RAG+CoT+约束提示工程):负责“调整乐队的声音,让歌声更好听,更准确”(缓解幻觉,提高输出质量)。如果这个乐队的成员都配合得很好,调音师也调得很好,那么这个乐队的歌声就会“很好听,很准确”;如果这个乐队的成员配合得不好,或者调音师没调好,那么这个乐队的歌声就会“很难听,很不准确”——也就是“胡言乱语”。概念一和概念二的关系:LLM是Agent的“大脑”,幻觉是Agent的“大脑病”你可以把LLM想象成Agent的“大脑”,把幻觉想象成Agent的“大脑病”——如果Agent的“大脑”(LLM)有“大脑病”(原生幻觉),那么即使Agent的“手脚”(工具系统)“眼睛”(感知系统)“嘴巴”(输出系统)都没问题,Agent也会“胡言乱语”。概念一和概念四的关系:RAG是Agent的“参考书”,能治好Agent的“大脑病”(原生幻觉)你可以把RAG想象成Agent的“参考书”,把LLM的原生幻觉想象成Agent的“忘性大”——如果Agent的“大脑”(LLM)“忘性大”(原生幻觉),那么给Agent一本“参考书”(RAG),让Agent“翻参考书回答问题”,就能治好Agent的“忘性大”(原生幻觉)。概念一和概念五的关系:CoT是Agent的“解题步骤本”,能提高Agent的“逻辑推理能力”你可以把CoT想象成Agent的“解题步骤本”,把LLM的逻辑错误想象成Agent的“解题思路不清晰”——如果Agent的“大脑”(LLM)“解题思路不清晰”(逻辑错误),那么给Agent一本“解题步骤本”(CoT),让Agent“一步步地思考问题的解决过程”,就能提高Agent的“逻辑推理能力”。概念一、四、五、六的关系:RAG+CoT+约束提示工程是Agent的“三合一药方”,能系统性地缓解Agent的所有幻觉你可以把RAG+CoT+约束提示工程想象成Agent的“三合一药方”——这个药方的“成分”有:RAG:给Agent提供“可靠的知识依据”;CoT:让Agent“一步步地思考问题的解决过程”;约束提示工程:给Agent定“规矩”。如果Agent同时服用这“三合一药方”,就能系统性地缓解Agent的所有幻觉——包括LLM原生幻觉、输入偏差幻觉、整合偏差幻觉。核心概念原理和架构的文本示意图(专业定义)基于LLM的任务型Agent的核心架构由以下几个部分组成:感知与交互模块:负责接收用户的输入(可以是文本、语音、图片等,但本文主要讨论文本输入);负责将用户的输入转换为LLM能理解的格式;负责将LLM生成的输出转换为用户能理解的格式(可以是文本、语音、图片等,但本文主要讨论文本输出);负责与用户进行多轮对话。意图理解与实体识别模块:负责理解用户的意图(比如“订火锅外卖”“查资料”“写代码”);负责识别用户输入中的实体(比如“双人火锅套餐”“北京市朝阳区望京SOHO T3-1201室”“50分钟”);负责填充意图所需的槽位(Slot Filling)——比如“订火锅外卖”的槽位有“套餐类型”“口味”“配菜”“地址”“送达时间”“联系电话”。记忆管理模块:负责存储用户的历史对话记录(短期记忆);负责存储用户的个人信息(长期记忆)——比如“地址”“口味”“生日”“联系电话”;负责存储Agent的历史操作记录(比如“之前调用了什么工具,返回了什么结果”);负责从记忆中检索出与当前对话相关的信息。工具调度与执行模块:负责维护一个工具库(Tool Library)——里面有各种外部工具(比如搜索引擎、计算器、天气API、订机票API、订火锅外卖API);负责根据用户的意图和当前的上下文,决定调用哪些工具;负责调用外部工具,并获取工具返回的结果;负责处理工具返回的错误(比如“API调用失败”“工具返回的结果为空”)。知识检索与增强模块(RAG模块):负责维护一个知识库(Knowledge Base)——里面有结构化或非结构化的知识(比如维基百科、企业的内部文档、法律法规库);负责将知识库中的文档转换为向量(Vector),并存储在向量数据库(Vector Database)中;负责根据用户的意图和当前的上下文,从向量数据库中检索出与当前对话相关的 top-k 个文档(或文档片段);负责对检索到的文档进行重排序(Reranking)——把最相关的文档排在最前面;负责将重排序后的文档作为“上下文”,和用户的问题一起输入给LLM。决策与推理模块:负责整合多源信息——包括用户的输入、记忆中的信息、工具返回的结果、检索到的文档;负责一步步地思考问题的解决过程(CoT);负责根据整合后的信息和思考过程,做出合理的决策;负责生成最终的答案。幻觉检测与修正模块:负责检测决策与推理模块生成的答案是否有幻觉;负责如果检测到幻觉,就对答案进行修正——比如“重新检索文档”“重新调用工具”“重新思考问题的解决过程”;负责如果无法修正幻觉,就告诉用户“我不知道”,或者“我不确定这个答案是否正确,请你核实一下”。

相关文章:

你的Agent为什么总是“胡言乱语”?问题出在哪?

你的Agent为什么总是“胡言乱语”?问题出在哪? 关键词:大语言模型 Agent 幻觉 检索增强生成 思维链 约束提示工程 对齐 摘要:本文从“Agent胡言乱语”这一日常用户痛点切入,像剥洋葱一样一层一层揭开问题的本质——大语言模型的“幻觉(Hallucination)”与Agent构建链路中…...

Kubernetes和机器学习工作负载

Kubernetes和机器学习工作负载 🔥 硬核开场 各位技术老铁,今天咱们聊聊Kubernetes和机器学习工作负载。别跟我扯那些理论,直接上干货!在云原生时代,Kubernetes已经成为管理容器化应用的标准平台,而机器学习…...

DriverStore Explorer终极指南:如何安全清理Windows冗余驱动释放磁盘空间

DriverStore Explorer终极指南:如何安全清理Windows冗余驱动释放磁盘空间 【免费下载链接】DriverStoreExplorer Driver Store Explorer 项目地址: https://gitcode.com/gh_mirrors/dr/DriverStoreExplorer 你的Windows系统盘空间是否越来越小?电…...

Go语言怎么做JWT认证_Go语言JWT Token生成验证教程【推荐】

JWT exp报错因时间戳单位错误:Go的ExpiresAt需int64秒级时间戳,误用UnixMilli()导致值过大被当作远期时间而判定过期;密钥硬编码或加载不当亦引发验签失败。生成 JWT 时 exp 字段总报 expired?因为时间戳单位错了Go 的 jwt.Regist…...

混合A星路径规划详解:从基础到实践的逐行源码分析

逐行讲解hybrid astar路径规划 混合a星泊车路径规划 带你从头开始写hybridastar算法,逐行源码分析matlab版hybridastar算法一、整体定位 Hybrid A 是一种面向非完整约束车辆(阿克曼底盘)的连续空间路径规划算法。它融合了离散栅格 A 与连续状…...

平衡小车稳如老狗?聊聊PID参数整定那些‘玄学’与科学(附MATLAB/Simulink仿真文件)

平衡小车稳如老狗?聊聊PID参数整定那些‘玄学’与科学 平衡小车作为经典的控制系统教学案例,其核心挑战在于如何让直立环、速度环和转向环三个PID控制器协同工作。许多工程师在调参时常常陷入"凭感觉试"的困境——P值大了会振荡,小…...

自适应技能叠加技能Adaptive Skill Stack

Adaptive Skill Stack(SkillHub) Adaptive Skill Stack(ClawHub) name: adaptive-skill-stack author: 王教成 Wang Jiaocheng (波动几何) description: 自适应技能叠加技能——一个能够根据用户需求实时演化的元技能。每次使用时…...

深入拆解V4L2媒体框架:从subdev注册到media pipeline构建全流程

深入拆解V4L2媒体框架:从subdev注册到media pipeline构建全流程 在多媒体系统集成领域,构建稳定高效的摄像头处理流水线一直是开发者面临的挑战。本文将带您深入Linux V4L2媒体框架的核心机制,揭示从传感器注册到完整媒体管道搭建的技术细节。…...

公路地下病害检测仿真:如何用gprMax 3.0模拟水稳层空洞的雷达图谱

公路水稳层空洞的雷达图谱仿真与解译实战指南 清晨六点,某高速公路养护段的技术员小李正盯着车载探地雷达屏幕上一组异常反射波皱起眉头——这些不规则的双曲线信号,究竟是水稳层空洞还是电缆管线的回波?类似场景每天都在全国各地的道路检测现…...

TDengine:Linux客户端安装与配置全指南

1. TDengine客户端安装前的准备 在开始安装TDengine客户端之前,我们需要先了解几个关键点。TDengine是一款专为物联网、工业互联网等场景设计的高性能时序数据库,它的客户端可以运行在Linux系统上,用于连接和管理TDengine服务器。 首先确认你…...

物联网设备上云实战:从MCU到Linux的4种通信方案全解析(附避坑指南)

物联网设备上云实战:从MCU到Linux的4种通信方案全解析(附避坑指南) 在智能家居和工业物联网快速发展的今天,设备上云已成为实现远程监控、数据分析和智能决策的基础环节。然而,面对从资源受限的MCU到完整Linux系统的多…...

Phi-4-mini-reasoning在运维领域的实战:日志智能分析与故障预警

Phi-4-mini-reasoning在运维领域的实战:日志智能分析与故障预警 1. 运维人员的日志分析困境 凌晨三点,运维工程师小王被刺耳的告警声惊醒。监控系统显示某核心服务响应时间飙升,但面对GB级别的日志文件,他不得不在数百个可能相关…...

JMS, ActiveMQ 学习一则托

开发个什么Skill呢? 通过 Skill,我们可以将某些能力进行模块化封装,从而实现特定的工作流编排、专家领域知识沉淀以及各类工具的集成。 这里我打算来一次“套娃式”的实践:创建一个用于自动生成 Skill 的 Skill,一是用…...

M2FP镜像部署全攻略:无需配置,CPU环境也能稳定运行

M2FP镜像部署全攻略:无需配置,CPU环境也能稳定运行 你是不是也想过在自己的项目里加入“智能抠人像”或者“身体部位识别”的功能?比如,让用户上传一张合照,系统就能自动把每个人的头发、衣服、裤子、皮肤等不同部位用…...

深入解析英飞凌TC3XX系列GTM模块的ARU数据路由机制

1. GTM模块与ARU的核心定位 在英飞凌TC3XX系列芯片中,GTM(Generic Timer Module)堪称定时器功能的"瑞士军刀"。这个由博世设计、英飞凌二次开发的模块,最让我印象深刻的是它200MHz的时钟频率——这意味着它能实现5纳秒级…...

ESP32实战-打造智能红外遥控中枢

1. ESP32红外遥控中枢的硬件准备 第一次接触ESP32红外遥控功能时,我对着淘宝买来的红外接收头和LED发了半天呆。这些看似简单的小元件,要稳定工作其实有不少门道。先说接收端,市面上最常见的VS1838B红外接收模块,虽然标称工作电压…...

RTL8201F PHY芯片替换调试:从时钟异常到网络连通的实战复盘

1. 低成本PHY芯片替换的实战背景 最近接手一个工业控制项目,甲方对成本极其敏感,要求我们把原本使用的LAN8742 PHY芯片替换成更便宜的方案。经过多方对比,最终选择了RTL8201F-VB-CG这款性价比突出的百兆以太网PHY芯片。本以为只是简单的驱动替…...

LVGL进阶:从零构建专属图标字体与多语言字库

1. 为什么需要自定义图标字体与多语言字库 当你为智能手表或工业HMI设计多语言界面时,系统默认的英文字体和有限图标就像穿着不合身的西装——勉强能用但处处别扭。我去年开发一款出口东南亚的智能家居面板时就深有体会:客户要求同时显示泰文、中文和阿拉…...

RLC电路仿真对比实验:Simulink原生模块 vs 自定义S函数谁更准?

RLC电路仿真精度对决:Simulink原生模块与S函数建模深度评测 在电力电子和控制系统仿真领域,Simulink作为行业标准工具,提供了两种截然不同的电路建模路径:一种是直接调用现成的RLC模块快速搭建电路,另一种则是通过S函数…...

【OpenClaw企业级智能体实战】第29篇:边缘智能:在10美元开发板上跑OpenClaw(PicoClaw实战)

摘要:OpenClaw生态的轻量化分支(PicoClaw/ZeroClaw/MimiClaw)突破AI智能体的边缘部署瓶颈,实现10美元级硬件、10MB内存的本地运行。本文剖析技术架构,提供树莓派/ESP32/旧手机的实战部署方案,并探讨其在智能家居、工业物联网等场景的应用前景。核心优势包括成本下沉(硬件…...

【44】软考软件设计师——高频考点速记手册|100个核心概念+公式+模板 便携速记卡

摘要:本文是《软件设计师50讲通关|从零基础到工程师职称》专栏第44篇,作为模块六:冲刺与模拟的开篇核心篇,聚焦软考考前冲刺阶段“高效复盘、精准记忆”需求,整合100个软考高频考点,涵盖核心概念、计算公式、SQL模板、设计模式意图、UML关系符号五大核心板块。全文采用“…...

【反蒸馏实战 07】技术支持工程师:当AI客服处理80%工单,你的价值在复杂根因与客户信任@技术支持工程师的AI治理与根因诊断实操指南

摘要:2026年,AI智能体已替代40%的技术支持岗位,处理80%以上的标准化工单——但这并非技术支持工程师的终点。本文基于AI治理框架、分布式链路追踪技术、Python自动化工具链,拆解“脚本执行者”到“AI治理工程师”的转型路径。通过4个核心实操模块(AI决策审计系统、跨系统根…...

SR、JK、T、D触发器:逻辑符号解析与特性方程对比

1. 触发器基础概念与分类 在数字电路设计中,触发器(Flip-Flop)是最基础的存储单元之一。简单来说,触发器就像是一个记忆开关,能够记住1位二进制信息(0或1)。想象一下家里的电灯开关——按一下开…...

【复习】最小生成树 Kruskal

👨‍💻 关于作者:会编程的土豆 “不是因为看见希望才坚持,而是坚持了才看见希望。” 你好,我是会编程的土豆,一名热爱后端技术的Java学习者。 📚 正在更新中的专栏: 《数据结构与算…...

BCI竞赛实战:从BCI competition IV 2b数据集的批量加载到PyTorch数据管道构建

1. BCI竞赛与数据集背景 脑机接口(BCI)竞赛是推动脑电信号处理技术发展的重要平台,其中BCI Competition IV 2b数据集因其规范的采集流程和明确的运动想象任务设计,成为入门级研究的理想选择。这个数据集包含9名受试者的左右手运动…...

Play Integrity API Checker:Android设备安全检测的终极指南

Play Integrity API Checker:Android设备安全检测的终极指南 【免费下载链接】play-integrity-checker-app Get info about your Device Integrity through the Play Intergrity API 项目地址: https://gitcode.com/gh_mirrors/pl/play-integrity-checker-app …...

DeepAnalyze在教育领域的个性化学习应用

DeepAnalyze在教育领域的个性化学习应用 1. 当作业不再只是对错判断,而是学习路径的起点 你有没有遇到过这样的情况:学生交上来一份开放性题目答案,内容丰富但思路跳跃,老师批改时反复斟酌——这算对还是不对?该给多…...

EF Core 拦截器实战:SaveChangesInterceptor、CommandInterceptor 与审计落地缕

一、背景与问题缘起 MySQL 5.6.51 版本下 2000 万行核心业务表开展新增字段操作,需求为新增BIGINT(19) NOT NULL DEFAULT 0 COMMENT 注释(因业务实际需要存储大数值关联字段)。 表的核心特性为Java 多线程密集读写,业务请求持续高…...

AI智能二维码工坊开发手册:REST API接口调用示例

AI智能二维码工坊开发手册:REST API接口调用示例 1. 项目概述 AI智能二维码工坊是一个基于Python QRCode和OpenCV构建的全能型二维码处理工具。它采用纯算法逻辑实现,提供高性能的二维码生成与识别解码服务,支持高容错率编码,无…...

打字不如说话,说话不如截图——AI 代码助手的多模态输入实践澜

整体排查思路 我们的目标是验证以下三个环节是否正常: 登录成功时:服务器是否正确生成了Session并返回了包含正确 JSESSIONID的Cookie给浏览器。 浏览器端:浏览器是否成功接收并存储了该Cookie。 后续请求:浏览器在执行查询等操作…...