当前位置: 首页 > article >正文

LangChain-模型输入输出 (Model I/O)

模型输入输出是LangChain的核心组件,负责处理与各种语言模型的交互。本文档详细介绍了这些组件的功能和使用方法。

概述

模型输入输出组件负责:

  1. 连接各种语言模型:统一不同提供商的模型接口
  2. 格式化输入:将原始输入转换为模型可理解的格式
  3. 处理输出:解析和格式化模型的输出内容

这些组件构成了LangChain应用程序的基础,是构建各种AI应用的起点。

主要组件

1. 语言模型 (LLMs)

语言模型组件处理文本到文本的生成任务:

from langchain_openai import OpenAIllm = OpenAI(temperature=0.7)
result = llm.invoke("介绍一下中国的四大发明")
print(result)

主要特点:

  • 接收文本输入,返回文本输出
  • 支持参数调整(温度、最大生成长度等)
  • 提供多种模型类型和供应商选择

支持的主要模型:

  • OpenAI - GPT-3.5, GPT-4等
  • Anthropic - Claude系列
  • 百度文心 - ERNIE-Bot系列
  • 阿里通义 - 通义千问系列
  • 本地模型 - Hugging Face模型、LLaMA等

2. 聊天模型 (Chat Models)

聊天模型组件专门处理多轮对话交互:

from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, SystemMessagechat = ChatOpenAI()
messages = [SystemMessage(content="你是一位友好的AI助手"),HumanMessage(content="你好!请介绍一下自己")
]
response = chat.invoke(messages)
print(response.content)

主要特点:

  • 使用消息列表作为输入(系统消息、用户消息、助手消息)
  • 返回结构化消息对象
  • 支持多轮对话上下文

消息类型:

  • SystemMessage: 设置模型行为和角色的系统指令
  • HumanMessage: 用户输入信息
  • AIMessage: AI回复内容
  • FunctionMessage: 函数调用结果
  • ToolMessage: 工具使用的消息

3. 提示模板 (Prompt Templates)

提示模板用于动态构建发送给模型的提示:

from langchain_core.prompts import PromptTemplate, ChatPromptTemplate# 文本提示模板
template = PromptTemplate.from_template("请介绍{country}的{topic}")
prompt = template.format(country="中国", topic="传统节日")# 聊天提示模板
chat_template = ChatPromptTemplate.from_messages([("system", "你是一位{role}专家,擅长解答{field}问题"),("human", "请回答:{question}")
])
messages = chat_template.format_messages(role="历史",field="中国古代文化",question="唐朝的科举制度是怎样的?"
)

主要特点:

  • 支持变量插入
  • 支持条件逻辑
  • 允许组合多个模板

4. 输出解析器 (Output Parsers)

输出解析器将模型输出转换为结构化数据:

from langchain_core.output_parsers import StrOutputParser, PydanticOutputParser
from langchain_core.pydantic_v1 import BaseModel, Field
from typing import List# 简单字符串解析
parser = StrOutputParser()# 结构化数据解析
class Movie(BaseModel):title: str = Field(description="电影标题")director: str = Field(description="导演姓名")year: int = Field(description="上映年份")rating: float = Field(description="评分(1-10)")structured_parser = PydanticOutputParser(pydantic_object=Movie)# 在格式化指令中使用
format_instructions = structured_parser.get_format_instructions()
template = """生成一部经典电影的信息。
{format_instructions}
电影类型: {genre}"""prompt = PromptTemplate(template=template,input_variables=["genre"],partial_variables={"format_instructions": format_instructions}
)

主要解析器类型:

  • StrOutputParser: 简单字符串提取
  • PydanticOutputParser: 将输出解析为Pydantic模型
  • JsonOutputParser: 将输出解析为JSON结构
  • XMLOutputParser: 将输出解析为XML结构
  • CommaSeparatedListOutputParser: 将输出解析为逗号分隔的列表

高级用法

流式处理

流式处理允许逐步接收模型生成的内容:

from langchain_openai import ChatOpenAIchat = ChatOpenAI(streaming=True)for chunk in chat.stream("写一首关于人工智能的短诗"):print(chunk.content, end="")

模型参数调整

调整模型的生成行为:

from langchain_openai import ChatOpenAI# 创造性参数调整
creative_model = ChatOpenAI(model="gpt-4",temperature=0.9,  # 提高随机性max_tokens=2000,  # 设置最大生成长度top_p=0.95,  # 控制词汇多样性frequency_penalty=0.5  # 减少重复
)# 精确模式
precise_model = ChatOpenAI(model="gpt-4",temperature=0.1,  # 降低随机性,更确定性的输出max_tokens=500
)

使用多模型

在不同场景使用不同模型:

from langchain_openai import ChatOpenAI
from langchain_anthropic import ChatAnthropic
from langchain_qianfan import ChatQianfanmodels = {"general": ChatOpenAI(model="gpt-3.5-turbo"),  # 通用对话"complex": ChatOpenAI(model="gpt-4"),  # 复杂推理"creative": ChatAnthropic(model="claude-3-opus-20240229"),  # 创意写作"chinese": ChatQianfan()  # 中文处理优化
}def get_appropriate_model(task):if task == "creative_writing":return models["creative"]elif task == "complex_reasoning":return models["complex"]elif task == "chinese_content":return models["chinese"]else:return models["general"]

函数调用

让模型选择并调用函数:

from langchain_core.tools import tool
from langchain_openai import ChatOpenAI@tool
def get_weather(location: str, unit: str = "celsius"):"""获取指定位置的天气信息"""# 这里应该有实际的API调用,这里用模拟数据weather_data = {"北京": "晴朗,25°C", "上海": "多云,28°C"}return weather_data.get(location, "未知地区")@tool
def calculate(expression: str):"""计算数学表达式"""return eval(expression)# 设置模型和工具
model = ChatOpenAI()
tools = [get_weather, calculate]# 使用函数调用
response = model.invoke("北京今天的天气怎么样?另外,计算一下25乘以4等于多少?",tools=tools
)print(response)

处理上下文窗口限制

处理长文本输入:

from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_openai import ChatOpenAI# 长文本处理
def process_long_text(text):# 分割文本为小块splitter = RecursiveCharacterTextSplitter(chunk_size=4000,chunk_overlap=200)chunks = splitter.split_text(text)# 处理各个文本块model = ChatOpenAI()results = []for chunk in chunks:response = model.invoke(f"请总结以下内容:{chunk}")results.append(response.content)# 合并结果combined = "\n\n".join(results)final_summary = model.invoke(f"请将以下多个摘要整合为一个连贯的总结:{combined}")return final_summary.content

集成实例

基本链式处理

from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from langchain_core.output_parsers import StrOutputParser# 创建基本组件
prompt = ChatPromptTemplate.from_template("请用中文回答:{question}")
model = ChatOpenAI()
output_parser = StrOutputParser()# LCEL组合
chain = prompt | model | output_parser# 执行链
result = chain.invoke({"question": "人工智能的发展历史是什么?"})
print(result)

使用记忆组件

from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_community.memory import ConversationBufferMemory
from langchain_core.runnables.history import RunnableWithMessageHistory# 创建带有历史的提示模板
prompt = ChatPromptTemplate.from_messages([("system", "你是一位友好的AI助手。"),MessagesPlaceholder(variable_name="history"),("human", "{input}")
])# 创建链
chain = prompt | model | output_parser# 添加记忆组件
store = {}
memory = ConversationBufferMemory(return_messages=True,memory_key="history"
)chain_with_history = RunnableWithMessageHistory(chain,lambda session_id: memory,input_messages_key="input",history_messages_key="history"
)# 使用带历史的链
response1 = chain_with_history.invoke({"input": "你好!"},config={"configurable": {"session_id": "user1"}}
)response2 = chain_with_history.invoke({"input": "我们刚才聊了什么?"},config={"configurable": {"session_id": "user1"}}
)

总结

模型输入输出组件是LangChain的基础构建块,它们提供与语言模型交互的标准接口。通过这些组件,您可以:

  1. 连接各种大语言模型
  2. 动态构建提示
  3. 解析和结构化输出
  4. 处理多轮对话
  5. 实现高级功能如流式处理、函数调用等

正确使用这些组件是构建高效且可靠的LLM应用的关键。根据不同的应用场景,组合使用这些组件,可以满足各种复杂需求。

后续学习

  • 提示模板 - 进一步了解提示工程
  • 输出解析器 - 深入学习输出处理
  • 记忆系统 - 学习管理对话历史
  • 链 - 组合多个组件构建复杂应用

相关文章:

LangChain-模型输入输出 (Model I/O)

模型输入输出是LangChain的核心组件,负责处理与各种语言模型的交互。本文档详细介绍了这些组件的功能和使用方法。 概述 模型输入输出组件负责: 连接各种语言模型:统一不同提供商的模型接口格式化输入:将原始输入转换为模型可理…...

基于FPGA实现BPSK 调制

目录 一、 任务介绍二、基本原理三、基于FPGA实现BPSK 调制四、源码 一、 任务介绍 BPSK 调制在数字通信系统中是一种极重要的调制方式,它的抗干扰噪声性能及通频带的利用率均优先于 ASK 移幅键控和 FSK 移频键控。因此,PSK 技术在中、高速数据传输中得…...

深入理解 ResponseBodyAdvice 及其应用

ResponseBodyAdvice 是 Spring MVC 提供的一个强大接口&#xff0c;允许你在响应体被写入 HTTP 响应之前对其进行全局处理。 下面我将全面介绍它的工作原理、使用场景和最佳实践。 基本概念 接口定义 public interface ResponseBodyAdvice<T> {boolean supports(Metho…...

Java 基础 - 反射(1)

文章目录 引入类加载过程1. 通过 new 创建对象2. 通过反射创建对象2.1 触发加载但不初始化2.2 按需触发初始化2.3 选择性初始化控制 核心用法示例1. 通过无参构造函数创建实例对象2. 通过有参构造函数创建实例对象3. 反射通过私有构造函数创建对象&#xff0c; 破坏单例模式4. …...

Spring Boot中Spring MVC相关配置的详细描述及表格总结

以下是Spring Boot中Spring MVC相关配置的详细描述及表格总结&#xff1a; Spring MVC 配置项详解 1. 异步请求配置 spring.mvc.async.request-timeout 描述&#xff1a;设置异步请求的超时时间&#xff08;单位&#xff1a;毫秒&#xff09;。默认值&#xff1a;未设置&…...

flink Shuffle的总结

关于 ** ​5 种 Shuffle 类型** 的区别、使用场景及 Flink 版本支持的总结&#xff1a; * 注意:下面是问AI具体细节与整理学习 1. 核心区别 Shuffle 类型核心特点使用场景Flink 版本支持Pipelined Shuffle流式调度&#xff0c;纯内存交换&#xff0c;低延迟&#xff08;毫秒级…...

在排序数组中查找元素的第一个和最后一个位置 --- 二分查找

目录 一&#xff1a;题目 二&#xff1a;算法原理分析 三&#xff1a;代码实现 一&#xff1a;题目 题目链接&#xff1a; 34. 在排序数组中查找元素的第一个和最后一个位置 - 力扣&#xff08;LeetCode&#xff09; 二&#xff1a;算法原理分析 三&#xff1a;代码实现 c…...

631SJBH中小型企业的网络管理模式的方案设计

1.1、研究现状 我国很多企业信息化水平一直还处在非常初级的阶段&#xff0c;有关统计表明&#xff0c;真正实现了计算机较高应用的企业在全国1000多万中小企业中所占的比例还不足10&#xff05;幢3。大多数企业还停留在利用互联网进行网上查询(72&#xff0e;9&#xff05;)、…...

NO.85十六届蓝桥杯备战|动态规划-经典线性DP|最长上升子序列|合唱队形|最长公共子序列|编辑距离(C++)

经典线性dp问题有两个&#xff1a;最⻓上升⼦序列&#xff08;简称&#xff1a;LIS&#xff09;以及最⻓公共⼦序列&#xff08;简称&#xff1a;LCS&#xff09;&#xff0c;这两道题⽬的很多⽅⾯都是可以作为经验&#xff0c;运⽤到别的题⽬中。⽐如&#xff1a;解题思路&…...

0410 | 软考高项笔记:项目管理概述

以下是不同组织结构中项目经理的角色、工作特点以及快速记忆的方法&#xff1a; 不同组织结构中项目经理的角色和工作特点 组织结构项目经理的角色工作特点职能型组织项目协调者、辅助管理者权力有限&#xff0c;主要负责协调部门间的工作&#xff0c;项目成员向部门经理汇报…...

Vue3的Composition API与React Hooks有什么异同?

Vue3的一个重大更新点就是支持Composition API&#xff0c;而且也被业界称为hooks&#xff0c;那么Vue3的“Hooks”与React的Hooks有这么区别呢&#xff1f; 一、核心相似点 1. 逻辑复用与代码组织 都解决了传统类组件或选项式 API 中逻辑分散的问题&#xff0c;允许将相关逻…...

LangChain4j(1):初步认识Java 集成 LLM 的技术架构

LangChain 作为构建具备 LLM 能力应用的框架&#xff0c;虽在 Python 领域大放异彩&#xff0c;但 Java 开发者却只能望洋兴叹。LangChain4j 正是为解决这一困境而诞生&#xff0c;它旨在借助 LLM 的强大效能&#xff0c;增强 Java 应用&#xff0c;简化 LLM 功能在Java应用中的…...

JDK 21 的新特性有哪些?带你全面解读 Java 的未来

引言&#xff1a;从 JDK 21 看 Java 的进化之路 Java 是一门历久弥新的语言&#xff0c;每一次版本更新都在强化它的生态体系。2023 年发布的 JDK 21&#xff0c;作为长期支持版本&#xff08;LTS&#xff09;&#xff0c;带来了许多令人兴奋的新特性。不论你是开发者、架构师…...

【C++算法】53.链表_重排链表

文章目录 题目链接&#xff1a;题目描述&#xff1a;解法C 算法代码&#xff1a; 题目链接&#xff1a; 143. 重排链表 题目描述&#xff1a; 解法 模拟 找到链表的中间节点 快慢双指针 把后面的部分逆序 双指针&#xff0c;三指针&#xff0c;头插法 合并两个链表 合并两个有…...

多卡分布式训练:torchrun --nproc_per_node=5

多卡分布式训练:torchrun --nproc_per_node=5 1. torchrun 实现规则 torchrun 是 PyTorch 提供的用于启动分布式训练作业的实用工具,它基于 torch.distributed 包,核心目标是简化多进程分布式训练的启动和管理。以下是其主要实现规则: 进程启动 多进程创建:torchrun 会…...

系统架构设计师之系统设计模块笔记

一、系统设计概述 定义与目标 系统设计是根据系统分析结果&#xff0c;制定系统构建蓝图的过程&#xff0c;核心目标是合理分配功能需求、优化资源使用、确保系统高内聚低耦合&#xff0c;并满足性能、安全、可扩展等非功能需求。主要内容 概要设计&#xff1a;将功能需求分配…...

Elasticsearch:加快 HNSW 图的合并速度

作者&#xff1a;来自 Elastic Thomas Veasey 及 Mayya Sharipova 过去&#xff0c;我们曾讨论过搜索多个 HNSW 图时所面临的一些挑战&#xff0c;以及我们是如何缓解这些问题的。当时&#xff0c;我们也提到了一些计划中的改进措施。本文正是这项工作的成果汇总。 你可能会问…...

图片中文字无法正确显示的解决方案

图片中文字无法正确显示的解决方案 问题描述 在 Linux 系统中生成图片时&#xff0c;图片中的文字&#xff08;如中文&#xff09;未能正确显示&#xff0c;可能表现为乱码或空白。这通常是由于系统缺少对应的字体文件&#xff08;如宋体/SimSun&#xff09;&#xff0c;或者…...

数据结构:通俗解释AOE 网中事件的最早发生时间和最迟发生时间

1. 事件的最早发生时间 在 AOE 网&#xff08;Activity On Edge Network&#xff0c;边表示活动的网络&#xff09;中&#xff0c;事件的最早发生时间指从源点&#xff08;起点&#xff09;到该事件结点的最长路径长度&#xff08;即所需时间&#xff09;。它决定了所有以该事…...

C# 看门狗策略实现

using System; using System.Threading;public class Watchdog {private Timer _timer;private volatile bool _isTaskAlive;private readonly object _lock new object();private const int CheckInterval 5000; // 5秒检测一次private const int TimeoutThreshold 10000; …...

在 openEuler 24.03 (LTS) 操作系统上添加 ollama 作为系统服务的步骤

以下是在 openEuler 操作系统上添加 ollama 作为系统服务的步骤&#xff1a; 创建 systemd 服务文件 sudo vi /etc/systemd/system/ollama.service将以下内容写入服务文件&#xff08;按需修改参数&#xff09;&#xff1a; [Unit] DescriptionOllama Service Afternetwork.…...

Elasticsearch中的基本全文搜索和过滤

Elasticsearch中的基本全文搜索和过滤 知识点参考: https://www.elastic.co/guide/en/elasticsearch/reference/current/full-text-filter-tutorial.html#full-text-filter-tutorial-range-query 1. 索引设计与映射 多字段类型&#xff08;Multi-Fields&#xff09; &#xff…...

基于VSCode的Qt开发‘#include ui_test.h’报错没有该文件

笔者在基于VSCode进行Qt开发时&#xff0c;test.ui文件是在Qt软件中绘制的&#xff0c;导致本项目无法使用这个ui文件&#xff0c;报错如标题。事实上&#xff0c;本工程中也确实没有生成这个头文件。出现这个错误的原因是ui文件没有被编译为c头文件。 要生成 ui_test.h 文件&…...

Python常用排序算法

1. 冒泡排序 冒泡排序是一种简单的排序算法&#xff0c;它重复地遍历要排序的列表&#xff0c;比较相邻的元素&#xff0c;如果他们的顺序错误就交换他们。 def bubble_sort(arr):# 遍历所有数组元素for i in range(len(arr)):# 最后i个元素是已经排序好的for j in range(0, …...

ISP--Demosaicking

文章目录 前言算法解释简单的线性插值代码实现 色差法和色比法基于方向加权的方法RB缺失的G通道的插值RB缺失的BR的插值G缺失的BR的插值代码实现 基于边缘检测的方法计算缺失的G计算缺失的RB值/计算缺失的G值 前言 人眼之所以有能感受到自然界的颜色&#xff0c;是因为人眼的感…...

国标GB28181协议EasyCVR视频融合平台:5G时代远程监控赋能通信基站安全管理

一、背景介绍 随着移动通信行业的迅速发展&#xff0c;无人值守的通信基站建设规模不断扩大。这些基站大多建于偏远地区&#xff0c;周边人迹罕至、交通不便&#xff0c;给日常的维护带来了极大挑战。其中&#xff0c;位于空旷地带的基站设备&#xff0c;如空调、蓄电池等&…...

vue watch 和 watchEffect的区别和用法

在 Vue.js 里&#xff0c;watch 和 watchEffect 都用于响应式地追踪数据变化并执行相应操作&#xff0c;不过它们在使用方式、应用场景等方面存在差异。 1. watch watch 是 Vue 提供的一个选项&#xff0c;用于监听特定数据的变化。当监听的数据发生变化时&#xff0c;会触发…...

SQL 不走索引的常见情况

在 SQL 查询中&#xff0c;即使表上有索引&#xff0c;某些情况下数据库优化器也可能决定不使用索引。以下是常见的不走索引的情况&#xff1a; 1. 使用否定操作符 NOT IN ! 或 <> NOT EXISTS NOT LIKE 2. 对索引列使用函数或运算 -- 不走索引 SELECT * FROM user…...

git配置 gitcode -- windows 系统

版本 $ git --version git version 2.49.0.windows.1检查现有的 SSH 密钥 打开git-bash终端&#xff0c;执行以下命令查看是否已经生成过 SSH 密钥&#xff1a; ls -al ~/.ssh如果看到类似 id_rsa 和 id_rsa.pub&#xff08;或者其他命名的密钥对&#xff09;文件&#xff0…...

基于Kubeadm实现K8S集群扩缩容指南

一、集群缩容操作流程 1.1 缩容核心步骤 驱逐节点上的Pod 执行kubectl drain命令驱逐节点上的Pod&#xff0c;并忽略DaemonSet管理的Pod&#xff1a; kubectl drain <节点名> --ignore-daemonsets # 示例&#xff1a;驱逐worker233节点 kubectl drain worker233 --ignor…...