当前位置: 首页 > article >正文

如何用LangChain开发一个Agent,20分钟包教包会!

26年一定是一个 Agent 大年我这边持续出系列文章帮助大家更好的落地 Agent今天的重点是程序员最常用的 Agent 框架 LangChain。只不过这东西可能由于 AI Coding 的成熟由给人看变成给 AI 看的。LangChain 既是一个开源的AI应用开发框架也是其背后同名公司LangChain的统称。该公司围绕AI应用开发构建了一套完整的产品矩阵包括广受欢迎的开源框架LangChain、用于构建复杂状态机的LangGraph以及企业级调试与监控平台LangSmith等。其中LangChain和LangGraph是社区中最活跃的两个开源项目。需要特别说明的是在LangChain 1.0版本之后这两个框架的定位发生了重要变化LangGraph 成为底层的智能体编排引擎专注于有状态、多轮、高度定制化的智能体流程控制而LangChain 则在此基础上演变为上层应用开发框架提供了更高阶的抽象、丰富的工具集成和便捷的智能体构建能力。简单来说LangChain 封装了 LangGraph 的复杂性让开发者能够快速搭建标准智能体而LangGraph 则为需要深度控制流程、自定义逻辑的场景提供了灵活的图式编程能力。对于大多数智能体应用比如本文将要构建的旅行智能助手LangChain 已足够胜任它简洁的API和开箱即用的组件能让我们更专注于业务逻辑本身注意1本文中的langchain 的版本1.0注意2案例很简单但一定要和前几篇文章对照阅读才知道Agent是什么才知道LangChain的意义unsetunset如何开发一个AgentunsetunsetPS有些老板不喜欢用Agent喜欢用智能体所以我尽量讲究老板们。在上文中我们说了开发智能体的核心其实就三件事模型 工具 记忆。模型负责核心的推理决策工具用来落地执行具体的业务操作记忆则负责留存历史对话给模型的推理提供足够的上下文支撑。接下来咱们就实操起来 看看怎么用 LangChain 实现模型调用、工具封装、会话记忆保存这些基础功能最终完整开发出一个能跑起来的 AI Agent。模型调用lagnchain 提供了很多标准的方法来调用各个厂商的模型官网给出了完成整的集成列表https://docs.langchain.com/oss/python/integrations/providers/overview可以进入官网。查看支持的模型厂商具体是如何使用。这里我们用deepseek举例这个是langchain 支持deepseek模型的集成包可以直接使用from langchain_deepseek import ChatDeepSeekmodel ChatDeepSeek( model..., temperature0, max_tokensNone, timeoutNone, max_retries2, api_keyos.getenv(DEEPSEEK_API_KEY), # other params...)其他模型提供商也有对应的集成包大家可以自行去官网寻找也可以使用 openAI的标准格式基本上所有模型都支持这种方式modelChatOpenAI( modeldeepseek-chat, api_keyos.getenv(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com, temperature0.7通过上面的方法我们就能得到一个模型实例 model接下来就可以调用这个 model 实例使用invoke或者stream方法向模型发起请求并获取它的返回结果了model ChatOpenAI( modeldeepseek-chat, api_keyos.getenv(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com, temperature0.7 ) messages [ {role: system, content: 你是一个有用的助手。}, {role: user, content: 你是谁} ]result model.invoke(messages)print(result.content)# 流失输出result model.stream(messages)for chunk in result: print(chunk.content)声明工具在 LangChain 里定义工具函数特别简单用 tool 装饰器就能快速搞定 这也是最常用、最便捷的方式# 定义工具函数tooldef get_weather(destination, date): # 实际调用天气 API return f{destination} {date} 天气晴朗tooldef get_attractions(destination): return f{destination} 的热门景点有故宫、颐和园...# ... 其他函数模型调用工具的关键是靠工具名称和描述来判断该不该用这个工具。如果只是写个普通函数给 LangChain 用它会默认把函数名当工具名、函数的文档字符串当描述。但这种默认写法往往描述得不够精准模型很可能理解错工具用途导致调用出错。所以想让模型“精准识别、正确调用”工具最好的方式是显式定义给工具指定清晰的名称、详细的描述还要给每个参数也加上说明。推荐的做法就是用 tool 装饰器搭配 Annotated 和 Field 来补充这些详细的元数据让模型完全明白工具的作用和用法from langchain_core.tools import toolfrom typing import Annotatedfrom pydantic import Fieldtool(name_or_callableget_weather, description获取指定城市指定日期的天气信息)def get_weather( destination: Annotated[str, Field(description城市名称如西安)], date: Annotated[str, Field(description日期格式 YYYY-MM-DD如2025-05-20)]) - str: return f{destination} {date} 天气晴朗tool(name_or_callableget_attractions, description获取指定城市的景点推荐)def get_attractions( destination: Annotated[str, Field(description城市名称如北京)]) - str: # 实际开发中这里应调用景点 API return f{city} 的热门景点有故宫、颐和园、天坛。定义智能体在 LangChain 中开发一个智能体非常简单。框架提供了标准方法 create_agent所有智能体都可以通过该方法快速定义。我们只需要传入几个核心参数即可完成一个智能体的创建**模型**通过 LangChain 的模型调用接口得到的大模型实例。**工具**声明好的工具列表。下面是一个完整的示例演示如何创建一个最简单的智能体并使用它from langchain_openai import ChatOpenAIfrom langchain.agents import create_react_agentfrom langchain_core.tools import toolimport os# 定义工具假设已有 get_weather, get_attractions# 示例工具函数已在前文定义此处略# 初始化模型model ChatOpenAI( modeldeepseek-chat, api_keyos.getenv(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com, temperature0.7)# 工具列表tools [get_weather, get_attractions]# 创建智能体agent create_agent(modelmodel, toolstools)# 准备输入消息messages { messages: [ {role: system, content: 你是一个有用的助手。}, {role: user, content: 我想去北京玩能帮我看看天气和景点吗} ]}# 调用智能体result agent.invoke(messages)# 输出最终答案print(result[messages][-1].content)这样我们就完成了一个最简单的智能体。LangChain 的 create_agent 方法默认采用 ReAct 模式Reasoning Acting运行智能体其工作流程如下模型接收用户消息进行推理判断是否需要调用工具。如果需要工具模型输出工具调用指令框架自动执行对应工具并将结果作为新的消息添加到对话中。更新后的消息再次输入给模型重复上述步骤直到模型认为信息收集完毕给出最终答案。整个流程完全由框架自动管理开发者只需提供模型和工具即可获得一个具备自主决策能力的智能体。添加记忆上一节我们构建了一个能够调用工具的智能体它目前还没有记忆能力每次对话都是独立的无法记住之前的对话历史。为了让智能体具备多轮对话的能力LangChain 提供了完善的记忆Memory模块记忆分为两类短期记忆和长期记忆接下来我们一起使用langchain提供的方法来实现他们**短期记忆**通常指模型上下文窗口内的对话历史。由于大模型的上下文窗口有限我们无法将无限长的对话历史全部发送给模型。因此短期记忆通常采用“滑动窗口”或“摘要总结”的方式只保留最近的几轮对话或关键信息。在 LangChain中短期记忆的持久化是通过 Checkpointer 机制实现的。Checkpointer 机制在构建智能体时我们通常希望它能够记住之前的对话内容。LangGraph 通过 checkpointer 来保存每一轮交互后的状态StateCheckpointer:负责在每一步Step结束后将当前的状态包括消息历史、变量等保存起来。thread_id:当我们需要继续之前的对话时只需要提供相同的 thread_idCheckpointer 就会加载之前的状态从而实现“记忆”功能。InMemorySaver 是一个基于内存的检查点保存器**原理**它将状态数据保存在 Python 的字典内存中。**特点**速度快无需额外依赖如数据库。**局限性**程序重启后数据会丢失。因此仅适用于开发调试或不需要持久化的场景。**生产环境替代方案**在生产环境中通常会使用 PostgresSaver (基于 PostgreSQL) 或 SqliteSaver 等持久化方案以确保服务重启后记忆不丢失。from langgraph.checkpoint.memory import InMemorySaver# ...agent create_agent( # ... checkpointerInMemorySaver())# 调用时指定 thread_idconfig {configurable: {thread_id: 1}}result agent.invoke(inputmessages, configconfig)**长期记忆**为了解决上下文窗口的限制我们需要将历史对话持久化存储如数据库、向量库。在需要时通过检索算法如语义相似度搜索找到与当前问题最相关的历史记录注入到 Prompt 中。这也就是 RAG检索增强生成在记忆模块中的应用。下面我们以一个基于向量数据库的长期记忆实现为例向量化存储实现我们使用 Chroma 作为向量数据库配合 DashScope 的 Embedding 模型来实现记忆的存储与检索。首先我们需要初始化 Embedding 模型和向量数据库import osfrom langchain_community.embeddings import DashScopeEmbeddingsfrom langchain_chroma import Chromafrom langchain_core.documents import Document# 初始化向量模型embeddings DashScopeEmbeddings( modeltext-embedding-v4, dashscope_api_keyos.getenv(DASHSCOPE_API_KEY))# 初始化向量存储# persist_directory 指定数据持久化目录vectorstore Chroma( embedding_functionembeddings, persist_directory./chroma_db, collection_namechat_history)保存记忆当对话发生时我们需要将用户的输入和 AI 的回复保存下来。为了区分不同用户和会话我们在 metadata 中记录 user_id 和 session_iddef save_messages(messages: str, user_id: int, session_id: int): 保存用户输入和AI输出的会话记录 # 将对话内容封装为 Document 对象并添加元数据 doc Document( page_contentmessages, metadata{user_id: user_id, session_id: session_id} ) # 添加到向量数据库 vectorstore.add_documents([doc])检索记忆在进行新一轮对话前我们可以根据用户的输入Query在向量库中检索相关的历史记录作为上下文提供给模型。这里我们还支持根据 user_id 和 session_id 进行过滤确保只检索当前用户或会话的记忆def load_messages(query: str, user_id: int, session_id: int): 加载用户输入和AI输出的会话记录 # 构建过滤条件 filters [] if user_id: filters.append({user_id: user_id}) if session_id: filters.append({session_id: session_id}) if len(filters) 1: filter_dict {$and: filters} elif len(filters) 1: filter_dict filters[0] else: filter_dict None # 执行相似度搜索返回最相关的 top-k 记录 if filter_dict: docs vectorstore.similarity_search(queryquery, k3, filterfilter_dict) else: docs vectorstore.similarity_search(queryquery, k3) return docs这里就做好了长期记忆的保存和检索接下来让我们在智能体中增加消息的保存和检索。在短期记忆中可以在create_agent中 加入一个 checkpointerInMemorySaver()就可以实现短期记忆langchain就会将历史对话消息添加到提示词中那么我们如何把长期记忆添加到提示词中呢这里就不得不提到langchain的中间件Middleware了通过middleware添加长期记忆Middleware 提供了强大的生命周期钩子允许我们在模型调用前后、工具执行前后进行深度干预。中间件生命周期钩子我们需要自己定义一个中间件 add_long_memory 使用wrap_model_call在模型调用前 通过 load_messages 方法 查询 长期记忆 并将消息追加到messages中wrap_model_calldef add_long_memory(request: ModelRequest, handler: Callable[[ModelRequest], ModelResponse]) - ModelResponse: print(fModel call: {request}) message request.messages[-1] if message.type human: embedding_docs load_messages(message.content, config[configurable][user_id], config[configurable][session_id]) embedding_message \n.join([doc.page_content for doc in embedding_docs]) request.messages.append(ChatMessage(contentembedding_message, rolesystem)) return handler(request)现在我们可以给agent添加长期记忆了只需要在create_agent中 添加一个参数middleware[add_long_memory()]Agent就会在调用模型前 调用add_long_memory 方法 将load_messages 查询到的历史消息添加到提示词中。完整的智能体代码如下config: RunnableConfig {configurable: {thread_id: 1, user_id: 1, session_id: 1}} llm ChatOpenAI( modeldeepseek-chat, api_keyos.getenv(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com, temperature0.7 ) messages { messages: [ {role: system, content: 你是一个旅游规划助手。}, {role: user, content: user_message} ] } tools [get_weather, get_attractions] agent create_agent(llm, toolstools, middleware[add_long_memory()], checkpointerInMemorySaver()) result agent.invoke(inputmessages, configconfig) ai_message result[messages][-1].content save_messages(messagesuser_message ai_message, user_idconfig[configurable][user_id], session_idconfig[configurable][session_id])运行效果如下学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相关文章:

如何用LangChain开发一个Agent,20分钟包教包会!

26年一定是一个 Agent 大年,我这边持续出系列文章,帮助大家更好的落地 Agent,今天的重点是程序员最常用的 Agent 框架 LangChain。 只不过这东西可能由于 AI Coding 的成熟,由给人看变成给 AI 看的。 LangChain 既是一个开源的A…...

AI Agent学习日记 Day2

今天继续实现word翻译功能,上次的代码翻译完后会丢失图片等元素,让deepseek改了好几版代码都还是有问题,我决定先搞懂根本原因再改代码。经调查,Word 的文档结构(通过 COM 对象模型)如下:Docume…...

大模型面试必备:模型训练与微调 15 问全解析

导读:2026 年,大模型已从"尝鲜"走向"落地"。无论是求职面试还是项目实战,模型训练与微调都是绕不开的核心话题。本文基于面试辅导资料,结合行业最佳实践,梳理了 15 个关键知识点,助大家…...

告别手动测试:用快马AI生成telnet端口批量检测脚本,效率提升十倍

最近在运维工作中频繁遇到需要批量检测服务器telnet端口连通性的需求。手动一台台测试不仅效率低下,还容易出错。经过一番摸索,我总结出一套用Python快速实现批量检测的方案,效率比手工操作提升了十倍不止。这里分享下具体实现思路和优化经验…...

SEO_如何通过内容优化有效提升SEO效果(353 )

SEO内容优化:如何通过高质量内容提升SEO效果 在当今的互联网时代,搜索引擎优化(SEO)已经成为了每一个网站运营者必须掌握的技能。而其中,内容优化是提升SEO效果的关键。好的内容不仅能吸引更多的访问者,还…...

终极文件伪装指南:如何3分钟让任何文件“隐形“传输

终极文件伪装指南:如何3分钟让任何文件"隐形"传输 【免费下载链接】apate 简洁、快速地对文件进行格式伪装 项目地址: https://gitcode.com/gh_mirrors/apa/apate 在当今数据安全日益重要的时代,apate文件伪装工具为开发者和技术爱好者…...

网站 SEO 软件如何提高网站流量

了解网站 SEO 软件的重要性 在当今互联网时代,网站流量的重要性不言而喻。无论你经营的是一个电子商务网站,博客,还是企业官方网站,高流量意味着更多的曝光和潜在客户。如何有效地提高网站流量呢?这里,我们…...

基于python的本地选择图像接入百度云api的图像识别项目

项目灵感来源于老师布置的任务。怎么感觉老师这个题目也是ai生成的~。~ 题目:基于 AI 视觉的本地图像分析脚本 任务要求: 请使用 Python 编写一个通用的图像分析脚本,具体流程需满足以下三个步骤: * 本地选图:程序运…...

YOLOv8人脸检测架构解析:高精度实时人脸定位技术实战指南

YOLOv8人脸检测架构解析:高精度实时人脸定位技术实战指南 【免费下载链接】yolov8-face yolov8 face detection with landmark 项目地址: https://gitcode.com/gh_mirrors/yo/yolov8-face YOLOv8-face是基于YOLOv8架构优化的专业人脸检测解决方案&#xff0c…...

关于整数和浮点数在内存中的存储

了解整数和浮点数在内存中的存储可以更有助于我们深入理解知识,在解一些题时也能起到重要的作用,是我们在学C中不可或缺的重要组成部分,接下来我简要介绍一下:首先,整数就是用二进制码存储。在内存中以补码的形式进行存…...

FireRedASR Pro效果展示:长难句识别准确,抗噪能力惊艳

FireRedASR Pro效果展示:长难句识别准确,抗噪能力惊艳 1. 语音识别新标杆 在嘈杂的会议室里,一段夹杂着咳嗽声和键盘敲击的录音正在播放。令人惊讶的是,FireRedASR Pro几乎一字不差地将这段对话转换成了文字,连专业术…...

Omni-Vision Sanctuary 大模型一键部署:Python入门级环境配置实战

Omni-Vision Sanctuary 大模型一键部署:Python入门级环境配置实战 1. 开篇:为什么选择Omni-Vision Sanctuary 如果你刚接触AI大模型,可能会被各种复杂的部署流程吓到。别担心,今天我们要聊的Omni-Vision Sanctuary是个对新手特别…...

终极指南:如何用Python SDK快速集成飞书开放平台API

终极指南:如何用Python SDK快速集成飞书开放平台API 【免费下载链接】oapi-sdk-python Larksuite development interface SDK 项目地址: https://gitcode.com/gh_mirrors/oa/oapi-sdk-python 想要在Python应用中快速集成飞书开放平台的强大功能,却…...

突破3大核心优势:Path of Building革新流放之路Build规划体验

突破3大核心优势:Path of Building革新流放之路Build规划体验 【免费下载链接】PathOfBuilding Offline build planner for Path of Exile. 项目地址: https://gitcode.com/GitHub_Trending/pa/PathOfBuilding 在《流放之路》复杂的角色构建系统中&#xff0…...

RobotStudio 仿真软件学习分享02 —— 仿真

目录一、本次学习内容总结二、学习经历(实操操作过程)2.1 机器人模型导入2.2 机器人工具加载与周边设备导入2.3 创建机器人控制系统2.4 创建工件坐标系(Workobject_1)2.5 创建并仿真机器人运动轨迹2.6 仿真视频录制三、补充关键注…...

Visual C++运行库全解析:从问题诊断到高效部署的完整指南

Visual C运行库全解析:从问题诊断到高效部署的完整指南 【免费下载链接】vcredist AIO Repack for latest Microsoft Visual C Redistributable Runtimes 项目地址: https://gitcode.com/gh_mirrors/vc/vcredist 问题诊断:运行库故障的典型表现与…...

PyCINRAD:解锁中国新一代气象雷达数据的Python利器

PyCINRAD:解锁中国新一代气象雷达数据的Python利器 【免费下载链接】PyCINRAD Decode CINRAD (China New Generation Weather Radar) data and visualize. 项目地址: https://gitcode.com/gh_mirrors/py/PyCINRAD 还在为处理复杂的CINRAD雷达数据格式而烦恼吗…...

Thorium浏览器:重新定义现代网页浏览体验的高性能解决方案

Thorium浏览器:重新定义现代网页浏览体验的高性能解决方案 【免费下载链接】thorium Chromium fork named after radioactive element No. 90. Source code and Linux releases. Windows/MacOS/ARM builds served in different repos, links are towards the top of…...

代码随想录算法训练营第二天 | Leetcode 209.长度最小的子数组 | Leetcode 59.螺旋矩阵 II | 区间和 | 开发商购买土地

209.长度最小的子数组 力扣题目链接:209. 长度最小的子数组 - 力扣(LeetCode)文档讲解:209.长度最小的子数组 | 滑动窗口 | 连续子数组 | 代码随想录视频讲解:拿下滑动窗口! | LeetCode 209 长度最小的子数…...

MiniCPM-o-4.5-nvidia-FlagOS插件开发指南:为谷歌浏览器打造智能阅读与摘要助手

MiniCPM-o-4.5-nvidia-FlagOS插件开发指南:为谷歌浏览器打造智能阅读与摘要助手 你是不是经常在网上冲浪时,面对一篇长文感到头疼,只想快速抓住核心要点?或者遇到一篇外文资料,需要逐句翻译才能理解?又或者…...

C++27协程标准化十大争议点终稿确认(含P2389R5/P2713R2/P2877R2等7项关键paper表决结果与工业界影响评估)

第一章:C27协程标准化演进全景与终稿里程碑意义C27协程标准的正式确立标志着C异步编程范式完成从实验性特性到语言级原语的根本性跃迁。自C20引入co_await、co_yield和co_return三大协程关键字以来,委员会持续通过P2526R4(无栈协程语义精化&a…...

公司 SEO 网站优化服务如何应对搜索引擎算法更新_公司 SEO 网站优化服务如何提高网站的曝光度

公司 SEO 网站优化服务如何应对搜索引擎算法更新 在数字化时代,搜索引擎算法的更新频繁,给公司的SEO网站优化服务带来了不小的挑战。搜索引擎不断优化其算法,以提升用户体验和搜索结果的相关性。这种变化往往会对网站的排名和曝光度产生直接…...

MindSpore 环境配置完全指南

1 安装与初始化 # 全局安装 OpenSpec npm install -g fission-ai/openspeclatest # 在项目目录下初始化 cd /path/to/your-project openspec init 初始化时,OpenSpec 会提示你选择使用的 AI 工具(Claude Code、Cursor、Trae、Qoder 等)。 3 O…...

突破音频格式壁垒:QMCDecoder开源工具实现无损音频自由转换

突破音频格式壁垒:QMCDecoder开源工具实现无损音频自由转换 【免费下载链接】qmc-decoder Fastest & best convert qmc 2 mp3 | flac tools 项目地址: https://gitcode.com/gh_mirrors/qm/qmc-decoder 问题:当音乐被数字锁链束缚——QMC格式的…...

鸣潮终极自动化解决方案:智能图像识别实现高效游戏体验

鸣潮终极自动化解决方案:智能图像识别实现高效游戏体验 【免费下载链接】ok-wuthering-waves 鸣潮 后台自动战斗 自动刷声骸 一键日常 Automation for Wuthering Waves 项目地址: https://gitcode.com/GitHub_Trending/ok/ok-wuthering-waves ok-ww是一款基于…...

新手友好:无需配置环境,在快马平台编写第一行open claw控制代码

今天想和大家分享一个特别适合新手入门的Open Claw控制小项目。作为一个刚接触机器人控制的小白,我发现在InsCode(快马)平台上可以轻松实现机械爪的基础控制,完全不需要配置复杂的环境,特别适合零基础学习。 Open Claw是什么? Ope…...

5MB轻量级中文字体:WenQuanYi Micro Hei完全指南

5MB轻量级中文字体:WenQuanYi Micro Hei完全指南 【免费下载链接】fonts-wqy-microhei Debian package for WenQuanYi Micro Hei (mirror of https://anonscm.debian.org/git/pkg-fonts/fonts-wqy-microhei.git) 项目地址: https://gitcode.com/gh_mirrors/fo/fon…...

实战利器:基于快马平台为你的车辆检测项目定制专属labelimg标注工具

在AI项目开发中,数据标注往往是决定模型效果的关键环节。最近我在做一个车辆检测项目时,发现通用的标注工具无法满足特定需求,于是尝试用InsCode(快马)平台快速定制了一个专属的labelimg工具。整个过程比想象中顺利,分享几个实战要…...

ComfyUI插件管理工具:构建稳定高效的AI创作环境

ComfyUI插件管理工具:构建稳定高效的AI创作环境 【免费下载链接】ComfyUI-Manager ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers management functions to install, remove, disable, and enable various custom node…...

Windows硬件指纹修改指南:EASY-HWID-SPOOFER的实用解析

Windows硬件指纹修改指南:EASY-HWID-SPOOFER的实用解析 【免费下载链接】EASY-HWID-SPOOFER 基于内核模式的硬件信息欺骗工具 项目地址: https://gitcode.com/gh_mirrors/ea/EASY-HWID-SPOOFER 你是否曾因软件试用期结束而烦恼?是否担心网站通过硬…...