当前位置: 首页 > article >正文

电商客服+导购智能体的设计与开发确

这个代码的核心功能是基于输入词的长度动态选择反义词示例并调用大模型生成反义词体现了 “动态少样本提示Dynamic Few-Shot Prompting” 与 “上下文长度感知的示例选择” 的能力。from langchain.prompts import FewShotPromptTemplate, PromptTemplatefrom langchain.prompts.example_selector import LengthBasedExampleSelectorfrom langchain_core.output_parsers import StrOutputParserfrom langchain_openai import ChatOpenAIimport osfrom dotenv import load_dotenv# 定义反义词任务的示例数据集few-shot examples# 每个示例包含一个输入词input和对应的反义词outputexamples [{input: 开心, output: 伤心},{input: 高, output: 矮},{input: 精力充沛, output: 没精打采},{input: 粗, output: 细},]# 定义单个示例的格式模板# 使用 {input} 和 {output} 作为占位符用于后续填充具体值example_prompt PromptTemplate(input_variables[input, output], # 声明模板中使用的变量名templateInput: {input}\nOutput: {output}, # 示例的文本格式)# 创建一个基于长度的示例选择器LengthBasedExampleSelector# 作用根据输入提示的总长度动态选择最合适的示例数量避免超出模型上下文限制example_selector LengthBasedExampleSelector(examplesexamples, # 提供所有候选示例example_promptexample_prompt, # 用于格式化每个示例的模板max_length25, # 设定整个 prompt含前缀、示例、后缀的最大 token 长度此处为字符数近似# 注意LengthBasedExampleSelector 默认使用 len(text) 计算长度非精确 token 数适用于简单场景)# 构建动态少样本提示模板FewShotPromptTemplate# 它会根据输入内容的长度自动从 examples 中选择合适数量的示例插入到 prompt 中dynamic_prompt FewShotPromptTemplate(example_selectorexample_selector, # 使用上面定义的动态选择器而非固定示例列表example_promptexample_prompt, # 单个示例的格式prefix给出每个输入的反义词, # 提示的开头部分任务指令suffixInput: {adjective}\nOutput:, # 提示的结尾部分包含待预测的输入占位符input_variables[adjective], # 声明最终用户输入的变量名与 suffix 中的 {adjective} 对应)# 测试 1输入较短应选择多个示例 print(【测试1】输入较短选择多个示例)print(dynamic_prompt.format(adjectivebig))print(------------)# 测试 2输入很长应只选择少量或一个示例以控制总长度 long_string big and huge and massive and large and gigantic and tall and much much much much much bigger than everything elseprint(【测试2】输入很长仅选择一个示例)print(dynamic_prompt.format(adjectivelong_string))print(------------)# 测试 3动态添加新示例 # 向示例选择器中新增一个示例胖 - 瘦new_example {input: 胖, output: 瘦}dynamic_prompt.example_selector.add_example(new_example)print(【测试3】添加新示例后查询热情)print(dynamic_prompt.format(adjective热情))print(------------)# 配置并调用 DeepSeek 大语言模型 llm ChatOpenAI(api_keyos.getenv(DEEPSEEK_API_KEY),base_urlos.getenv(DEEP_URL), # Deepseek 的 API 基础地址modeldeepseek-v3:671b, # Deepseek 对话模型可选deepseek-chat-pro 等高级模型temperature0.7, # 温度参数0-1越低越稳定max_tokens1024 # 最大生成 tokens)# 创建字符串输出解析器用于将模型返回的 AIMessage 转换为纯文本output_parser StrOutputParser()# 构建处理链Chainprompt → LLM → output parser# 使用 LangChain 的管道操作符 | 连接各组件chain dynamic_prompt | llm | output_parser# 调用链传入输入变量 {adjective: 热情}# 注意chain.invoke() 内部已包含 llm 调用和 output_parser 解析无需再手动调用 output_parsermessage chain.invoke({adjective: 热情})# ?? 注意上一行 chain.invoke() 已经返回了字符串因为最后是 StrOutputParser# 所以下面这行是多余的甚至会导致错误因为 message 已是 str不能再次 invoke# result output_parser.invoke(message) # ? 错误message 是 str不是 AIMessage# 正确做法直接使用 message 作为结果result messageprint(###############)print(【模型输出】)print(result)输出结果123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051【测试1】输入较短选择多个示例给出每个输入的反义词Input: 开心Output: 伤心Input: 高Output: 矮Input: 精力充沛Output: 没精打采Input: 粗Output: 细Input: bigOutput:------------【测试2】输入很长仅选择一个示例给出每个输入的反义词Input: 开心Output: 伤心Input: big and huge and massive and large and gigantic and tall and much much much much much bigger than everything elseOutput:------------【测试3】添加新示例后查询热情给出每个输入的反义词Input: 开心Output: 伤心Input: 高Output: 矮Input: 精力充沛Output: 没精打采Input: 粗Output: 细Input: 胖Output: 瘦Input: 热情Output:------------###############【模型输出】冷淡核心要点总结这段代码是基于 LangChain 框架对接 DeepSeek 大模型实现「动态少样本Few-Shot反义词生成」的完整案例核心解决「固定示例易超出模型上下文长度」的问题通过动态示例选择器适配不同长度输入同时结合 LangChain 链式调用简化模型调用流程先明确整体定位再拆解核心重点一、整体流程概览核心逻辑链代码遵循 LangChain 「示例准备 → 动态提示构建 → 模型调用 → 结果解析」的少样本学习经典流程整体可概括为1. 定义反义词任务的固定示例数据集为模型提供参考案例2. 配置基于长度的示例选择器根据输入文本长度动态筛选示例数量3. 构建动态少样本提示模板自动适配输入长度生成合规 Prompt4. 初始化 DeepSeek 模型客户端配置核心调用参数5. 构建「提示模板 → 大模型 → 输出解析」的链式调用流程6. 调用链条完成反义词生成并输出纯文本结果二、核心重点拆解必掌握1. 少样本提示Few-Shot Prompt核心组件这是实现「模型参考示例生成结果」的基础也是 LangChain 提示工程的核心用法- 示例数据集examples以键值对形式存储「输入-输出」示例为模型提供任务参考如开心→伤心- 单示例模板example_prompt定义单个示例的文本格式Input/Output 固定样式统一示例展示形式- 动态少样本模板FewShotPromptTemplate整合示例选择器、单示例模板、前缀/后缀生成最终发给模型的完整 Prompt- prefix任务指令给出每个输入的反义词明确模型要执行的任务- suffix待填充的用户输入占位符承接动态输入内容。2. 动态示例选择器LengthBasedExampleSelector这是代码的核心亮点解决「固定示例数量易超上下文长度」的问题核心作用根据输入文本的长度自动计算并选择合适数量的示例输入越长选的示例越少避免 Prompt 总长度超出模型上下文限制关键参数- examples候选示例列表- example_prompt示例格式化模板用于计算单示例长度- max_lengthPrompt 允许的最大长度此处为字符数近似值。3. LangChain 链式调用| 操作符简化多组件协作流程是 LangChain 核心设计理念- 链条构成dynamic_prompt生成 Prompt | llm调用模型 | output_parser解析结果- 核心优势无需手动分步调用先格式化 Prompt、再调用模型、最后解析结果一行代码完成全流程- 调用方式chain.invoke({adjective: 热情}) 传入输入变量直接返回解析后的纯文本结果。4. 输出解析器StrOutputParser解决「模型返回 AIMessage 对象→提取纯文本」的问题核心作用将 LangChain 模型返回的 AIMessage 类型含 content/metadata 等字段转换为纯字符串简化结果使用关键注意点链式调用中已包含解析步骤无需手动再次调用 output_parser.invoke()否则会报错。乱录投难

相关文章:

电商客服+导购智能体的设计与开发确

这个代码的核心功能是:基于输入词的长度动态选择反义词示例,并调用大模型生成反义词,体现了 “动态少样本提示(Dynamic Few-Shot Prompting)” 与 “上下文长度感知的示例选择” 的能力。 from langchain.prompts impo…...

基于非支配排序遗传算法NSGAII的综合能源优化调度附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室🍊个人信条:格物致知,完整Matlab代码及仿真咨询…...

【价格型需求响应】基于Logistic函数的负荷转移率模型需求响应研究附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室🍊个人信条:格物致知,完整Matlab代码及仿真咨询…...

电子电路中的“心脏”:电源都

前言 Kubernetes 本身并不复杂,是我们把它搞复杂的。无论是刻意为之还是那种虽然出于好意却将优雅的原语堆砌成 鲁布戈德堡机械 的狂热。平台最初提供的 ReplicaSets、Services、ConfigMaps,这些基础组件简单直接,甚至显得有些枯燥。但后来我…...

Vue + Iframe 实战:打造企业级流程配置中心诙

简介 langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。 环境配置 安装langchain框架 pip install langchain langchain-community 其中…...

备考策略:针对职场人的时间与精力,提供AI认证考试的高效备考与避坑方案

CAIE注册人工智能工程师(简称CAIE认证、赛一认证或CAIE(赛一)认证),是由CAIE人工智能研究院颁发的聚焦人工智能领域的专业技能等级认证,旨在培养和评估具备理论基础实战能力的复合型AI人才,覆盖零基础小白、职场赋能者…...

手机端访问 Web 服务器

手机端访问 Web 服务器 从手机端访问 S7-1200 Web 服务器,需要将 S7-1200 CPU 连接 Internet 网络或者本地无线接入点相连的网络。本文档是将 S7-1200 CPU 用网线直接连接到无线设备上,并将手机的 WIFI 信号连接到由无线设备创建的无线网络中。无线设备…...

选型建议:基于职场新人的能力模型,深度分析一级与二级认证的匹配度

CAIE注册人工智能工程师(简称CAIE认证),是聚焦人工智能领域的专业技能等级认证,由CAIE人工智能研究院颁发,核心目标是培养和评估兼具理论基础与实战能力的复合型AI人才。无论你是刚接触AI的零基础小白,希望…...

【LeetCode Hot 100】滑动窗口最大值——多种解法深度解析

题目描述 题目链接:LeetCode 239. 滑动窗口最大值 给你一个整数数组 nums,有一个大小为 k 的滑动窗口从数组的最左侧移动到数组的最右侧。你只可以看到在滑动窗口内的 k 个数字。滑动窗口每次只向右移动一位。 返回每个滑动窗口中的最大值。 示例&am…...

弹幕格式转换难题?用DanmakuFactory一键解决XML到ASS的专业转换

弹幕格式转换难题?用DanmakuFactory一键解决XML到ASS的专业转换 【免费下载链接】DanmakuFactory 支持特殊弹幕的xml转ass格式转换工具 项目地址: https://gitcode.com/gh_mirrors/da/DanmakuFactory 在当今的视频创作和观看生态中,弹幕已经成为不…...

ERTEC 系列 PROFINET 芯片级硬件过滤器分析桌

一、语言特性:Java 26 与模式匹配进化 1.1 Java 26 语言级别支持 IDEA 2026.1 EAP 最引人注目的变化之一,就是新增 Java 26 语言级别支持。这意味着开发者可以提前体验和测试即将在 JDK 26 中正式发布的语言特性。 其中最重要的变化是对 JEP 530 的全面支…...

【服务出错问题排查记录】从一个“点击失败”开始:为什么“系统异常”其实是最差的错误设计

一、问题起点:一次“无信息”的失败 ​ 那天我在页面上点击一个功能按钮,预期是触发一次 URL 分析任务。但页面只返回了一句:❗“系统异常,请稍后重试”。​ 没有错误详情,没有接口信息,也没有任何可追踪线…...

FastECompass:嵌入式轻量级倾角补偿电子罗盘算法库

1. FastECompass 库概述FastECompass 是一个专为嵌入式系统设计的轻量级电子罗盘(e-compass)算法库,核心目标是在资源受限的微控制器上实时、高效地解算三维姿态角:俯仰角(Pitch)、横滚角(Roll&…...

008、OpenClaw TTS 声学模型实战:训练数据准备与配置解析

上周调一个长句合成,输出音频在中段突然出现音调断裂,像是两个不同人在交替发音。频谱图上一看,隐状态在某个音素边界处发生了跳变。问题最终追溯到训练数据里同一说话人的音频存在采样率混用——部分文件是16kHz,另一些却是22.05kHz。预处理脚本没做统一重采样,导致模型在…...

语言的边界,与软件的命运秃

1. 引入 在现代 AI 工程中,Hugging Face 的 tokenizers 库已成为分词器的事实标准。不过 Hugging Face 的 tokenizers 是用 Rust 来实现的,官方只提供了 python 和 node 的绑定实现。要实现与 Hugging Face tokenizers 相同的行为,最好的办法…...

大模型推理延迟突增2300ms?立刻检查这7个负载均衡配置陷阱(含Nginx+Kong+Traefik三框架避坑checklist)

第一章:大模型工程化负载均衡策略优化 2026奇点智能技术大会(https://ml-summit.org) 在大模型推理服务规模化部署中,传统轮询或随机调度策略常导致GPU显存碎片化、请求延迟抖动加剧及节点间负载严重失衡。工程化负载均衡需兼顾请求语义特征&#xff0…...

html页面间调用

一、简单情况1、父页面通过iframe套子页面情况子页面通过window.parent调用父页面的函数2、多层嵌套window.top找到最顶层3、父界面通过open打开子界面子界面通过window.opener得到父界面二、复杂情况根据上述关系,进行各种组合,例如window.top.opener举…...

RT-Thread Studio配置避坑:手把手教你为WCH CH32V303工程正确指定GCC12工具链路径

RT-Thread Studio配置避坑:手把手教你为WCH CH32V303工程正确指定GCC12工具链路径 在嵌入式开发中,选择合适的工具链往往能显著提升开发效率和代码质量。对于使用WCH CH32V303这类RISC-V架构MCU的开发者来说,GCC12工具链带来的性能优化和代码…...

忘记文件名也能秒找文件!免索引全文搜索神器 FileLocator Pro v9.3.3560 多语便携版,支持Word/PDF/压缩包内容检索,助力高效办公

日常工作中,我们可能都有过这样的经历:记得文档里的某句话或某个数据,却想不起文件名,也不知道存在哪个文件夹里。Windows自带的搜索功能按文件名查找还可以,但按内容搜索时速度较慢,而且很多格式的文件搜不…...

M3GIM2:面向mbed OS的3G IoT模组轻量级驱动库

1. 项目概述M3GIM2 是专为 mbed OS 平台设计的轻量级驱动库,面向日本 Tabrain 公司推出的3GIM(3G IoT Module)通信模组。该模组定位于工业级低功耗物联网终端,支持 WCDMA/HSDPA(UMTS Band I/VI/VIII)、内置…...

记录一个使用AI开发企业官网的思路

背景 今天在开发一个企业官网,想使用AI来开发,记录一下AI系统提示词,供大家学习。 AI提示词如下 角色:你是一位资深的全栈开发专家,精通Vue 3.0技术栈和现代UI/UX设计,善于将品牌故事转化为具有感染力的数字…...

数模加油站:以数为翼,为梦想加油 —— 赋能每一位建模者的成长之路

数模加油站隶属于合肥科思通途教育科技有限公司,脱胎于2018年成立的睿森科研,深耕教育科技赛道,专注于数学建模服务领域,以专业之力搭建优质服务平台。品牌秉持“让数学建模触手可及,让每一份努力都有回响”的核心价值…...

大模型到底是啥?运维人分钟搞懂(不用数学)缎

1. 流图:数据的河流 如果把传统的堆叠面积图想象成一块块整齐堆叠的积木,那么流图就像一条蜿蜒流淌的河流,河道的宽窄变化自然流畅,波峰波谷过渡平滑。 它特别适合展示多个类别数据随时间的变化趋势,尤其是当你想强调整…...

Spring with AI (): 搜索扩展——向量数据库与RAG(下)僖

. GIF文件结构 相比于 WAV 文件的简单粗暴,GIF 的结构要精密得多,因为它天生是为了网络传输而设计的(包含了压缩机制)。 当我们用二进制视角观察 GIF 时,它是由一个个 数据块(Block) 组成的&…...

从ViT到Swin:手把手教你理解那个让Transformer在CV领域“开窍”的Shifted Windows

从ViT到Swin:揭秘Shifted Windows如何让Transformer在CV领域"开窍" 当Vision Transformer(ViT)首次将自然语言处理领域的Transformer架构引入计算机视觉时,整个AI社区为之振奋。但很快,研究者们发现了一个尴…...

人工智能编程流程技能AI Dev Workflow

AI Dev Workflow(SkillHub) AI Dev Workflow(ClawHub) name: AI Dev Workflow author: 王教成 Wang Jiaocheng (波动几何) description: 此技能提供一个标准化、可复现的AI辅助编程工作流,通过三个有序步骤将模糊想法转…...

性能核弹X4522首发“翻车”不断?赋缘汇全套调教方案出炉:五大旗舰平台稳如泰山,EFVI一键脚本封神!

你是否也经历了这样的至暗时刻? 手握最新的X4522网卡,满心期待性能核弹的爆发,结果刚插上设备就“变哑”?面对Onload驱动报错和复杂的EFVI源码编辑,只能无奈叹息,甚至想把这块“核弹”扔进角落&#xff0c…...

MiniMax M. 发布!Redis 故障排查 + 跨语言重构场景实测,表现如何?确

一、前言:什么是 OFA VQA 模型? OFA(One For All)是字节跳动提出的多模态预训练模型,支持视觉问答、图像描述、图像编辑等多种任务,其中视觉问答(VQA)是最常用的功能之一——输入一张…...

嵌入式OTA封装库:解耦硬件与升级逻辑的生产级抽象层

1. OTAHandler:嵌入式系统OTA能力封装库深度解析1.1 设计定位与工程价值OTAHandler并非一个独立的固件升级协议栈,而是一个面向生产级嵌入式系统的OTA能力抽象层。其核心设计哲学是“解耦”与“可移植”——将底层通信驱动(UART/USB/CAN/Ethe…...

告别Python+Netmiko!Rust+NexusOps如何重塑网络自动化

# 🚀 告别PythonNetmiko!RustNexusOps如何重塑网络自动化> 作者:NexusOps技术团队 | 原创 | 转载请注明出处> 标签:网络自动化、Rust、Netmiko、网络运维、Python## 📋 文章目录- [一、前言:为什么需…...