当前位置: 首页 > article >正文

基于LangChain的RAG与Agent智能体开发 - LangChain提示词模版

大家好我是小锋老师最近更新《2027版 基于LangChain的RAG与Agent智能体 开发视频教程》专辑感谢大家支持。本课程主要介绍和讲解RAGLangChain简介接入通义千万大模型 Ollama简介以及安装和使用OpenAI 库介绍和使用以及最重要的基于LangChain实现RAG与Agent智能体开发技术。视频教程课件源码打包下载 链接https://pan.baidu.com/s/1_NzaNr0Wln6kv1rdiQnUTg提取码0000基于LangChain的RAG与Agent智能体开发 - LangChain提示词模版LangChain框架提供了提示词模版类方便我们构建大模型提示词。模版的思想是 数据模版最终提示词在LangChain core核心包里定义了三种类型的提示词模版分别是通用提示词模版PromptTemplate少样本提示词模板FewShotPromptTemplate聊天会话提示词模版ChatPromptTemplate。这个三个提示词模版都继承自基础提示词模版BasePromptTemplateBasePromptTemplate类拥有format格式化方法以及BasePromptTemplate继承自Runnable类Runnable类拥有invoke调用方法。通用提示词模版PromptTemplate我们通过通用提示词模版PromptTemplate以及变量动态注入生成我们需要的提示词。我们来看一个简单示例from langchain_community.llms.tongyi import Tongyi from langchain_core.prompts import PromptTemplate # 定义一个模板包含两个变量product 和 price template 请帮我写一段关于 {product} 的广告重点是它的价格只有 {price} 元吸引用户购买。 # 创建 PromptTemplate 对象 prompt PromptTemplate( input_variables[product, price], # 输入变量 templatetemplate # 模板 ) # 通过 format 方法填充变量生成最终提示词 final_prompt prompt.format(product智能手表, price299) print(final_prompt) model Tongyi(modelqwen-plus) # 创建模型 result model.invoke(inputfinal_prompt) # 调用模型 print(result)运行输出LangChain中的chain链式语法在 LangChain 中Chain链是一个核心组件用于把不同的处理步骤串联起来上一个组件的输出作为下一个组件的输入形成一个可复用的处理流程。简单来说它就是“输入 → 处理 → 输出”的流水线但可以是多步的每一步都可以是不同类型的操作。LangChain Chain的链式语法 对象1 | 对象2 | ... | 对象 n 这个 | 链式符号 底层实现是吧 对象的 模式__or()__魔法方法重写了。大家有兴趣的可以扩展研究学习下。下面我们用LangChain的高级写法chain链式写法实现下。from langchain_community.llms.tongyi import Tongyi from langchain_core.prompts import PromptTemplate # 定义一个模板包含两个变量product 和 price template 请帮我写一段关于 {product} 的广告重点是它的价格只有 {price} 元吸引用户购买。 # 创建 PromptTemplate 对象 prompt PromptTemplate( input_variables[product, price], # 输入变量 templatetemplate # 模板 ) model Tongyi(modelqwen-plus) # 创建模型 # 创建链式调用 chain prompt | model # 调用模型 result chain.invoke(input{product: 智能手表, price: 299}) print(result)运行输出少样本提示词模板FewShotPromptTemplateFewShotPromptTemplate是支持少量样本的提示词模版。我们来看下下面的简单示例from langchain_community.llms.tongyi import Tongyi from langchain_core.prompts import PromptTemplate, FewShotPromptTemplate # 定义几个示例每个示例包含句子和对应的情感标签 examples [ {sentence: 今天天气真好心情愉快, sentiment: 正面}, {sentence: 这部电影太无聊了浪费时间。, sentiment: 负面}, {sentence: 这家餐厅的食物非常美味服务也很棒。, sentiment: 正面}, {sentence: 产品质量很差用了几天就坏了。, sentiment: 负面}, ] # 创建一个格式化示例的模板 example_prompt PromptTemplate( input_variables[sentence, sentiment], template句子{sentence}\n情感{sentiment} ) # 创建 FewShotPromptTemplate 对象 few_shot_prompt FewShotPromptTemplate( examplesexamples, # 传入示例列表 example_promptexample_prompt, # 每个示例的格式化方式 prefix请根据以下示例判断新句子的情感是正面还是负面\n, # 前缀 suffix句子{input}\n情感, # 后缀包含变量 input example_separator\n\n, # 示例之间的分隔符 input_variables[input] # 定义输入变量 ) # 使用 format 方法填充新句子生成完整的提示词 new_sentence 这个手机性价比很高值得购买。 final_prompt few_shot_prompt.format(inputnew_sentence) print(final_prompt) # 创建模型 model Tongyi(modelqwen-plus) # 调用模型 result model.invoke(inputfinal_prompt) print(result)运行输出我们采用Chain链式写法改下from langchain_community.llms.tongyi import Tongyi from langchain_core.prompts import PromptTemplate, FewShotPromptTemplate # 定义几个示例每个示例包含句子和对应的情感标签 examples [ {sentence: 今天天气真好心情愉快, sentiment: 正面}, {sentence: 这部电影太无聊了浪费时间。, sentiment: 负面}, {sentence: 这家餐厅的食物非常美味服务也很棒。, sentiment: 正面}, {sentence: 产品质量很差用了几天就坏了。, sentiment: 负面}, ] # 创建一个格式化示例的模板 example_prompt PromptTemplate( input_variables[sentence, sentiment], template句子{sentence}\n情感{sentiment} ) # 创建 FewShotPromptTemplate 对象 few_shot_prompt FewShotPromptTemplate( examplesexamples, # 传入示例列表 example_promptexample_prompt, # 每个示例的格式化方式 prefix请根据以下示例判断新句子的情感是正面还是负面\n, # 前缀 suffix句子{input}\n情感, # 后缀包含变量 input example_separator\n\n, # 示例之间的分隔符 input_variables[input] # 定义输入变量 ) # 使用 format 方法填充新句子生成完整的提示词 new_sentence 这个手机性价比很高值得购买。 final_prompt few_shot_prompt.format(inputnew_sentence) # print(final_prompt) # 创建模型 model Tongyi(modelqwen-plus) # 调用模型 # result model.invoke(inputfinal_prompt) # print(result) # 采用链式chain写法 chain few_shot_prompt | model result chain.invoke(inputnew_sentence) print(result)运行输出聊天会话提示词模版ChatPromptTemplateChatPromptTemplate是 LangChain 中专为聊天模型如 ChatGPT设计的提示模板。与普通文本补全模型不同聊天模型的输入是一系列消息每条消息包含角色如系统、人类、AI和内容。ChatPromptTemplate允许你以结构化方式定义这些消息并支持动态插入变量最终生成一组聊天消息供模型使用。我们来看一个示例from langchain_community.llms.tongyi import Tongyi from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder # 1. 定义聊天提示模板 chat_template ChatPromptTemplate.from_messages([ (system, 你是一个友好的AI助手会结合对话历史回答用户问题。), # 系统消息设定AI基础角色 MessagesPlaceholder(history), # 对话历史占位符后续会被真实历史数据替换 (human, 我的新问题是{user_question}) # 当前用户的提问带变量占位 ]) # 2. 准备对话历史数据 history_data [ (human, 你好请问什么是LangChain), (ai, LangChain是构建大模型应用的框架方便连接数据源和工具。), (human, 那它能做聊天机器人吗), (ai, 可以它提供对话管理、记忆等能力很适合开发聊天机器人。) ] # 3. 调用模板传入对话历史 当前问题 prompt_value chat_template.invoke({ history: history_data, user_question: LangChain和LangGraph的区别 }) # 4. 查看最终格式化后的完整提示 print(格式化后的完整对话消息) for msg in prompt_value.messages: print(f{msg.type}: {msg.content}) # 定义模型 model Tongyi(modelqwen-plus) # 创建模型 # result model.invoke(inputprompt_value) # 调用模型 invoke完整输出 # print(result) result model.stream(inputprompt_value) # 调用模型 stream流式输出 for chunk in result: print(chunk, end, flushTrue)运行输出我们换成chain链式调用试下from langchain_community.llms.tongyi import Tongyi from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder # 1. 定义聊天提示模板和图片结构一致 chat_template ChatPromptTemplate.from_messages([ (system, 你是一个友好的AI助手会结合对话历史回答用户问题。), # 系统消息设定AI基础角色 MessagesPlaceholder(history), # 对话历史占位符后续会被真实历史数据替换 (human, 我的新问题是{user_question}) # 当前用户的提问带变量占位 ]) # 2. 准备对话历史数据和图片红框结构一致 history_data [ (human, 你好请问什么是LangChain), (ai, LangChain是构建大模型应用的框架方便连接数据源和工具。), (human, 那它能做聊天机器人吗), (ai, 可以它提供对话管理、记忆等能力很适合开发聊天机器人。) ] # 3. 调用模板传入对话历史 当前问题 # prompt_value chat_template.invoke({ # history: history_data, # user_question: LangChain和LangGraph的区别 # }) # 4. 查看最终格式化后的完整提示 # print(格式化后的完整对话消息) # for msg in prompt_value.messages: # print(f{msg.type}: {msg.content}) # 定义模型 model Tongyi(modelqwen-plus) # 创建模型 # result model.invoke(inputprompt_value) # 调用模型 invoke完整输出 # print(result) # result model.stream(inputprompt_value) # 调用模型 stream流式输出 # for chunk in result: # print(chunk, end, flushTrue) # chain链式调用 chain chat_template | model result chain.stream(input{ history: history_data, user_question: LangChain和LangGraph的区别 }) for chunk in result: print(chunk, end, flushTrue)运行输出在LangChain中format方法和invoke方法用于不同的目的理解它们的区别对于正确使用 LangChain 至关重要。下面是它们的主要区别方法format方法invoke方法定义用于格式化输入模板或字符串处理占位符或参数替换用于执行链操作调用链中的多个组件并返回结果用途主要用于字符串和模板的格式化准备数据主要用于实际执行链操作通常涉及模型推理或API调用返回值返回一个格式化后的字符串返回链的最终执行结果可能是一个对象、字典或其他数据结构输入传入格式化字符串和参数替换占位符接受输入数据并调用链中的函数或模型进行处理场景用于生成输入模板构建动态内容的场景用于执行实际的数据处理、推理或交互操作的场景

相关文章:

基于LangChain的RAG与Agent智能体开发 - LangChain提示词模版

大家好,我是小锋老师,最近更新《2027版 基于LangChain的RAG与Agent智能体 开发视频教程》专辑,感谢大家支持。本课程主要介绍和讲解RAG,LangChain简介,接入通义千万大模型 ,Ollama简介以及安装和使用&…...

SAP物料主数据管理:如何优雅地扩展MAKTX字段而不影响系统稳定性?

SAP物料主数据管理:如何优雅地扩展MAKTX字段而不影响系统稳定性? 在大型企业ERP系统实施中,物料描述字段(MAKTX)的40字符限制常常成为业务部门的痛点。当需要包含规格参数、多语言描述或特殊标识时,这个看似简单的字段扩展需求背…...

Emojicode标准库s包完全指南:文件、字符串、线程等核心功能详解

Emojicode标准库s包完全指南:文件、字符串、线程等核心功能详解 【免费下载链接】emojicode 😀😜🔂 World’s only programming language that’s bursting with emojis 项目地址: https://gitcode.com/gh_mirrors/em/emojicode…...

Express TypeScript Boilerplate错误处理机制:从异常捕获到友好响应的完整指南

Express TypeScript Boilerplate错误处理机制:从异常捕获到友好响应的完整指南 【免费下载链接】express-typescript-boilerplate A delightful way to building a RESTful API with NodeJs & TypeScript by w3tecch 项目地址: https://gitcode.com/gh_mirror…...

Android开发者必备:Repo、Manifest和Gerrit的实战指南(附常见问题解决)

Android大型项目管理实战:Repo、Manifest与Gerrit深度解析 在Android开源项目(AOSP)这类包含数百个Git仓库的超大型代码库中,传统的Git操作会变得异常繁琐。我曾参与过一个基于AOSP的定制化项目,第一次尝试用git clone…...

FPGA实战指南:如何用Stratix 10搭建你的第一个AI加速器(附性能对比)

FPGA实战指南:如何用Stratix 10搭建你的第一个AI加速器(附性能对比) 在AI计算领域,硬件加速器正成为突破性能瓶颈的关键。当GPU的批量处理模式遇到需要低延迟响应的场景时,FPGA凭借其可重构特性和流水线架构展现出独特…...

BUUCTF SQL注入实战:从零开始手把手教你破解字符型注入漏洞

BUUCTF SQL注入实战:字符型漏洞攻防全解析 第一次接触SQL注入时,我盯着那个简单的URL参数发呆——谁能想到在?id1这样普通的查询背后,竟隐藏着整个数据库的钥匙。作为网络安全领域的经典漏洞,SQL注入至今仍是Web安全测试中的&quo…...

555时基芯片压控振荡器的非线性特性分析与超声波调制应用

1. 555时基芯片压控振荡器基础原理 555时基芯片可以说是电子工程师的"瑞士军刀",从简单的闪光灯到复杂的PWM控制器都能见到它的身影。我第一次接触555芯片是在大学电子实验课上,当时用它做了一个LED闪烁电路,没想到这个小小的芯片还…...

media-server HLS流媒体实战:从M3U8生成到TS分片处理

media-server HLS流媒体实战:从M3U8生成到TS分片处理 【免费下载链接】media-server RTSP/RTP/RTMP/FLV/HLS/MPEG-TS/MPEG-PS/MPEG-DASH/MP4/fMP4/MKV/WebM 项目地址: https://gitcode.com/gh_mirrors/me/media-server media-server是一个功能强大的流媒体处…...

GTE-large效果惊艳展示:中文问答系统对‘上下文|问题’格式的鲁棒性测试

GTE-large效果惊艳展示:中文问答系统对‘上下文|问题’格式的鲁棒性测试 最近在测试各种文本向量模型时,我遇到了一个挺有意思的挑战:很多问答系统对输入格式特别挑剔,稍微变个花样就可能“罢工”。比如,有些模型要求…...

5个实用技巧:用backgroundremover轻松实现专业级图像背景处理

5个实用技巧:用backgroundremover轻松实现专业级图像背景处理 【免费下载链接】backgroundremover Background Remover lets you Remove Background from images and video using AI with a simple command line interface that is free and open source. 项目地址…...

python+flask+vue3的高校大学生网上选课网站的设计与实现

目录技术栈选型核心功能模块设计前后端交互实现关键逻辑实现测试与部署扩展优化方向项目技术支持源码获取详细视频演示 :文章底部获取博主联系方式!同行可合作技术栈选型 后端框架: Python Flask(轻量级、易扩展,适合快速开发 R…...

PDFtoPrinter终极指南:在Windows系统中高效打印PDF的完整解决方案

PDFtoPrinter终极指南:在Windows系统中高效打印PDF的完整解决方案 【免费下载链接】PDFtoPrinter .Net Wrapper over PDFtoPrinter util allows to print PDF files. 项目地址: https://gitcode.com/gh_mirrors/pd/PDFtoPrinter PDFtoPrinter是一个基于.NET…...

Prometheus告警链路实战:从规则定义到飞书机器人精准触达

1. 告警链路架构设计与核心组件 在分布式系统中,告警链路就像人体的神经系统。当某个服务出现异常时,这个"神经信号"需要经过多个关键节点处理,最终准确传递到运维人员手中。整个流程涉及四个核心组件: Prometheus Serv…...

RMBG-2.0开源模型优势:相比RemBG v2.0在细粒度边缘上的精度提升

RMBG-2.0开源模型优势:相比RemBG v2.0在细粒度边缘上的精度提升 1. 背景介绍 RMBG-2.0是BRIA AI开源的新一代背景移除模型,基于创新的BiRefNet(Bilateral Reference Network)架构。这个模型通过双边参考机制同时建模前景与背景特…...

Qwen3-Reranker-0.6B入门必看:Qwen3-Reranker与Qwen3-Embedding协同优化方案

Qwen3-Reranker-0.6B入门必看:Qwen3-Reranker与Qwen3-Embedding协同优化方案 1. 从零开始部署Qwen3-Reranker服务 如果你正在构建RAG(检索增强生成)系统,那么Qwen3-Reranker-0.6B绝对是你需要了解的利器。这个轻量级重排序模型只…...

DeepChat效果展示:Llama3:8b本地生成‘相对论通俗深刻解释’的真实对话截图集

DeepChat效果展示:Llama3:8b本地生成‘相对论通俗深刻解释’的真实对话截图集 1. 引言:当深度对话遇上绝对隐私 想象一下,你有一个无所不知的私人顾问,他能和你探讨最复杂的科学理论、最前沿的哲学问题,或者帮你构思…...

CasRel关系抽取模型案例集:微博短文本中‘用户-提及-话题’实时关系流抽取

CasRel关系抽取模型案例集:微博短文本中‘用户-提及-话题’实时关系流抽取 1. 引言:短文本中的关系挖掘挑战 你有没有刷过微博,看到一条热门微博下面成千上万的评论和转发,里面充满了各种和#话题标签?这些看似杂乱无…...

Android TV系统开发者必看:将GMS服务集成进AOSP 9.0源码的完整流程与避坑点

Android TV系统深度定制:GMS服务集成实战指南与关键问题解析 引言:为什么需要深度定制GMS集成方案? 在智能电视和机顶盒的Android系统开发中,Google Mobile Services(GMS)的集成一直是开发者面临的技术挑战…...

Kimi-VL-A3B-Thinking多场景落地:新能源电池BMS界面图→故障码解读→维护指引

Kimi-VL-A3B-Thinking多场景落地:新能源电池BMS界面图→故障码解读→维护指引 1. 引言:当视觉语言模型遇上新能源电池管理 想象一下这样的场景:一位新能源电池维护工程师站在复杂的电池管理系统(BMS)前,面对闪烁的指示灯和密密麻…...

nanobot参数详解:Qwen3-4B-Instruct推理时max_tokens/top_p/temperature设置

nanobot参数详解:Qwen3-4B-Instruct推理时max_tokens/top_p/temperature设置 1. 引言:为什么你需要关注这些参数? 如果你用过nanobot,或者任何其他大模型工具,可能都遇到过这样的困惑:为什么同一个问题&a…...

SeqGPT-560M效果可视化案例:同一段文本在不同Prompt下的分类稳定性对比

SeqGPT-560M效果可视化案例:同一段文本在不同Prompt下的分类稳定性对比 1. 引言:当AI理解文本时,它在想什么? 你有没有想过,当你让一个AI模型去理解一段文字,比如判断一篇文章是讲财经还是体育时&#xf…...

MTools部署案例:省级政务云平台部署MTools供20+厅局单位共享使用

MTools部署案例:省级政务云平台部署MTools供20厅局单位共享使用 1. 项目背景与需求 去年,某省级政务云平台的管理团队遇到了一个普遍但棘手的问题。平台上有超过20个不同的厅局单位,每天都需要处理大量的政策文件、会议纪要、工作报告和公众…...

Grbl CNC固件终极配置指南:从零到精通的完整教程

Grbl CNC固件终极配置指南:从零到精通的完整教程 【免费下载链接】grbl grbl: 一个高性能、低成本的CNC运动控制固件,适用于Arduino,支持多种G代码命令,适用于CNC铣削。 项目地址: https://gitcode.com/gh_mirrors/grb/grbl …...

从XVG到Excel:Gromacs原子距离数据分析的跨平台工作流

从XVG到Excel:Gromacs原子距离数据分析的跨平台工作流 在分子动力学模拟研究中,Gromacs生成的XVG格式数据往往需要经过复杂处理才能用于可视化分析。对于习惯Windows办公环境的科研人员来说,如何高效地将Linux服务器上的模拟结果转化为Excel可…...

MedGemma-X参数详解:GPU显存占用峰值与batch_size动态调节策略

MedGemma-X参数详解:GPU显存占用峰值与batch_size动态调节策略 1. 引言:从“能用”到“好用”的关键一步 当你第一次启动MedGemma-X,看到它流畅地分析X光片并生成专业报告时,那种兴奋感是真实的。但很快,一个现实问题…...

反激式开关电源电路调试中的常见问题与解决方案

1. 反激式开关电源电路调试入门指南 第一次接触反激式开关电源的调试,那种既兴奋又忐忑的心情我至今记忆犹新。作为电路设计新手,最让人头疼的就是明明按照原理图搭建好了电路,上电时却总是伴随着"啪"的一声脆响,接着就…...

企业级AI部署参考:DeepSeek-R1-Distill-Qwen-1.5B生产环境配置

企业级AI部署参考:DeepSeek-R1-Distill-Qwen-1.5B生产环境配置 最近有不少朋友在问,有没有一款既轻量又实用的AI模型,能在企业生产环境里稳定运行?今天我就来分享一个实际项目中的部署经验——DeepSeek-R1-Distill-Qwen-1.5B。 …...

吃透 SAP Gateway 里的 Service Registration:从服务注册、系统别名到路由设计的一次讲清

在很多 SAP 开发项目里,开发人员把精力都放在 SEGW 建模、DPC_EXT 实现、CDS View 设计,或者 RAP 服务暴露上,却容易把 Service Registration 当成一个机械化的收尾动作。真正到了联调阶段,前端调用报错、服务搜不到、元数据无法读取、路由跑偏到错误系统,问题往往都出在这…...

别再只玩ChatGPT了!手把手教你用Python和FastMCP搭建一个能聊英文阅读的AI小助手

别再只玩ChatGPT了!手把手教你用Python和FastMCP搭建一个能聊英文阅读的AI小助手 当大模型应用如ChatGPT席卷全球时,许多开发者却陷入"调用API-等待响应"的被动循环。有没有可能用200行代码打造一个专属领域对话机器人?比如一个能…...