当前位置: 首页 > article >正文

大模型核心技术概述:Token、Prompt、Tool与Agent的关系详解

你是不是经常听人聊AI时蹦出这些词LLM、Token、Context、Prompt、Tool、MCP、Agent听着好像都认识但真要问“这到底是啥”又有点懵。今天把这些词一个个拆开揉碎讲清楚它们到底是啥、有啥用、又是怎么串起来的。LLM(大模型)LLM 概述LLM的来历2017年Transformer架构诞生OpenAI将其发扬光大历程从GPT-3.5破圈到GPT-4飞跃再到百家争鸣用途从聊天起步正在成为一切数字交互的“万能接口”。LLM 是什么LLM大语言模型通俗来讲就是一个极其擅长“文字接龙”的超级智能程序。你可以把它想象成一个玩接龙游戏的高手它只做一件事给你一句话它根据这句话猜出下一个最可能出现的字或词。它一个字一个字地“吐”出来它先猜第一个字然后把这个字加回原来的句子里再猜下一个字。就这样一个字一个字地往外蹦直到它觉得一句话说完整了。它不懂文字只懂数字在它内部所有的文字都会被转换成它认识的数字也就是“Token”运算完再把数字变回文字告诉你。举个例子你问它“这篇文章怎么样”它不会一次性想好“特别棒”三个字。它的内部流程是先猜出第一个字“特”然后把“特”加回问题变成“这个视频怎么样特”再猜出“别”再把“别”加进去变成“这个视频怎么样特别”再猜出“棒”最后发现话说完了输出“特别棒”。你平时用的像GPT、Claude、豆包、文心一言这些产品底层都是这种“接龙”模型。它们之所以显得“聪明”是因为它们用海量的数据训练过猜下一个字的“经验”极其丰富所以接出来的话看起来像是有逻辑、有思考一样。简单理解就是大模型就像一个读过全世界所有书、但只会玩“文字接龙”的超级学霸——它每时每刻只关心“下一个字该接什么”但因为接了几万亿次它的“语感”好到让人觉得它真的在思考当我们给它装上“工具”和“长记忆”后它就从只会玩接龙游戏的玩家变成了能帮忙干活、做决策的搭档。Token(大模型处理数据的最基本单元)Token 通俗来讲就是大模型“眼中的文字”——它是模型处理文本时最小的“积木块”。它不是“字”也不是“词”而是“模型自己定义的积木”我们看文字是一个字一个字看的。但大模型看文字是先把一段话切成一小块一小块每一块就叫一个Token。有时候一个 Token 就是一个汉字比如“我”“你”“好”。有时候一个 Token 是一个词比如“苹果”“电脑”。但更多时候一个词会被切成多个 Token。比如“衣服撑”这个词在大模型眼里可能是两个 Token“衣服”和“撑”。再比如“Helpful”这个英文单词可能会被切成“Help”和“ful”两个 Token。一句话总结Token 是模型自己学会的一套“切分规则”每个 Token 就是它一次能“看”或“吐”的最小单位。国内可查 token 工具: https://console.volcengine.com/ark/region:arkcn-beijing/tokenCalculatorOpenAI 分词器platform.openai.com/tokenizer为什么要有 Token——因为模型只认数字大模型内部全是数学运算它不认识“你”“我”“他”只认识数字。所以需要有一个“翻译官”把文字变成数字这个数字就是Token ID。流程是这样的切分把你说的话切成一个个 Token。映射每个 Token 对应一个唯一的编号Token ID。运算模型只处理这些数字。还原模型吐出一个数字Token ID再把它变回文字。举个例子你问“这篇文章到底怎么样”它可能被切成 3 个 Token“这篇文章” “到底” “怎么样”。每个 Token 都有一个数字编号模型看到的其实是[1234, 5678, 9011,]这样一串数字。Token 和字数有什么关系这是一个很实用的知识点英文平均 1 个 Token ≈ 0.75 个单词。比如“hello”是一个 Token“helpful”是两个 Token。中文平均 1 个 Token ≈ 1.5 到 2 个汉字。一个常见汉字通常是一个 Token但生僻字可能需要 2~3 个 Token。为什么你要关心这个因为所有大模型产品都是按Token 数量计费的。你提问时消耗 Token模型回答时也消耗 Token。一段 1000 字的中文大概会消耗 1500~2000 个 Token。Token 决定了“它能记住多少”——上下文窗口每个大模型都有一个“上下文窗口”Context Window它的大小就是用Token 数量衡量的。比如一个模型说“上下文窗口是 100 万 Token”意思就是它一次最多能处理 100 万个 Token 的内容。100 万 Token 大约相当于 150 万个汉字或者《水浒传》整本那么多。你每次和大模型聊天它之所以能“记住”前面说的话就是因为程序会把整个对话历史用 Token 表示一直塞给它。如果对话太长超出了窗口最早的对话就会被“挤出去”模型就“忘”了。用一张图帮你记住 Token中间那一步“转成数字”之后模型处理的就不再是“文字”而是“数字积木”。它所有的“思考”其实都是在计算“下一个数字积木应该是什么”。Token 就是大模型“看”和“写”文字时使用的最小积木块。它既不是字也不是词而是模型自己学会的一种切分方式。你用大模型花的每一分钱、它能记住的每一句话都是用 Token 来衡量的。下次你再看到“这个模型有 100 万 Token 上下文”你就知道它能一次吞下整本《水浒传》然后跟你聊里面的任何细节。Context: (大模型每次处理任务时接收到的信息总和)Context 通俗来讲就是大模型每次处理任务时能“看到”的所有信息的总和。你可以把它想象成一个临时工作台你问模型一个问题这个问题会放到工作台上。你们之前的聊天记录也会放到工作台上。开发者在后台给它设定的“人设”和“规则”System Prompt也会摆在工作台上。甚至模型自己刚才“吐”出来的每一个字也会被立刻放回工作台上供它预测下一个字时参考。如果模型被允许调用工具比如查天气、算数学那么可用的工具列表也放在工作台上。总之模型每一次“思考”下一个字该接什么时工作台上的所有内容就是它的 Context。为什么要有 Context因为大模型本身没有记忆。它不是一个有意识的人而是一个数学函数——你给它输入它给你输出。为了让模型“记住”你刚才说过的话程序必须把对话历史也塞进当前的输入里。这个“被塞进来的对话历史”就是 Context 中最重要的部分之一。举个例子你说“我叫小明”模型回答“你好小明”。然后你问“我叫什么”如果没有 Context模型只看到“我叫什么”这五个字它只能瞎猜。但有了 Context程序会把上一轮对话“我叫小明 / 你好小明”也加到输入里模型看到的是完整的对话记录所以它知道你叫小明。Context 里具体有什么根据你提供的课程原文Context 包含但不限于用户问题User Prompt——你当前输入的消息。对话历史——之前你和模型的若干轮问答。模型正在输出的每一个 token——每生成一个字就追加到 Context 里用于预测下一个字。System Prompt——开发者在后台设置的人设或规则比如“你是一个耐心的数学老师”。工具列表——模型可以调用的外部能力天气 API、计算器等。所以 Context 是一个动态累积的信息集合每次模型要输出一个新字时它都会基于这个集合做计算。Context Window工作台的大小Context 能放多少东西是有限制的这个限制就叫Context Window上下文窗口。它代表模型一次能处理的最大 Token 数量。早期模型Context Window 只有几千 Token聊几句就“失忆”了最早的对话被挤出去。现在主流模型Context Window 可以达到100 万 Token甚至更多。100 万 Token 大约相当于 150 万个汉字能装下整本的《水浒传》。注意Context Window 不是硬盘而是“工作台内存”。如果对话太长超出窗口模型就会忘记窗口之外的内容。所以当你和模型聊了很久之后它突然“不记得”开头说了什么很可能就是因为 Context Window 满了早期的对话被丢弃了。Context window: (大模型的 Context 最多能够存储的 Token 量)Context Window 通俗来讲就是大模型的 Context上下文最多能装下多少 Token。你可以把它理解为一块工作台的大小——工作台上能同时摆放多少“信息积木”Token。为什么要有 Context Window因为大模型在处理任务时需要把所有的相关信息对话历史、用户问题、系统指令、工具列表等一次性放进Context里然后才能开始做“文字接龙”。但模型的计算能力是有限的它不能无限地往 Context 里塞东西。Context Window 就是这个“能塞多少”的上限单位是 Token。具体数值意味着什么早期的大模型如 GPT-3 初代Context Window 只有2048 个 Token左右。大约相当于 3000 个汉字。聊几句就满了最早的对话会被“挤出去”模型就会失忆。现在的主流模型Context Window 已经非常大。GPT-4部分版本128K Token约 20 万汉字GPT-4o128K 或更高Claude 3.5 Sonnet200K Token约 30 万汉字Gemini 1.5 Pro200 万 Token惊人约 300 万汉字能一次装下《三体》三部曲国产模型如 DeepSeek-V3128K Token或更高举个例子100 万 Token 大约相当于 150 万个汉字相当于整本《鹿鼎记》。这意味着你可以把一整本小说丢给模型让它基于全书内容回答你的问题而不会“忘记”开头。Context Window 不是越大越好吗越大越好但有两个代价计算成本Context Window 越大模型处理一次请求需要做的计算量就越大大致是平方级增长。所以超大窗口的模型通常更贵、更慢。注意力稀释当 Context 里有 100 万 Token 时模型要从中找出最相关的信息来预测下一个字就像在图书馆里找一句话——它可能会“走神”忽略掉真正重要的细节。不过现在的模型架构如注意力机制改进正在缓解这个问题。一个形象的类比想象你有一个白板每次和模型对话你都会把对话历史、问题、系统提示都写在白板上。Context Window 就是这块白板的面积。面积小比如几千 Token写几个句子就满了最早的句子只能擦掉。面积大比如 100 万 Token白板有一面墙那么大你可以写上整本百科全书模型每次都能看到全部内容。对你的实际影响长文档处理如果你需要让模型分析一本几百页的书就要确保模型的 Context Window 能装下整本书或者用 RAG 技术分段处理。多轮对话Context Window 决定了你能和模型聊多久而不让它“忘记”开头。窗口越大对话可以越长。费用按 Token 计费的模型虽然 Context Window 大但如果你每次真的塞满 100 万 Token那一次的请求费用会很高。Context Window 就是大模型“工作台”的大小——它决定了模型一次最多能“看到”多少 Token 的信息。窗口越大能记住的对话越多能处理的文档越长但计算成本和费用也会相应增加。现在当你看到“支持 200K 上下文”时你就知道这块模型的白板可以一次写下半本《三体》了。Prompt: (用户或系统当前给大模型下达的具体指令或问题)Prompt 通俗来讲就是你或系统当前对大模型说的那一句话——它代表了一个具体的指令或问题。想象你有一个能力超强但需要明确指令的助手。你开口说的第一句话就是 Prompt。比如“今天天气怎么样”“帮我写一首关于秋天的诗。”“把下面这段话翻译成英文。”Prompt 的两种类型根据来源和用途Prompt 分为两种User Prompt用户提示词由你——使用者——直接输入。代表你当前的具体需求。例如你在对话框里打的“3 5 等于几”System Prompt系统提示词由开发者在后台预先设置你作为用户看不到。它定义了大模型的“人设”或“行为规则”会一直潜在地影响模型对 User Prompt 的回应。例如“你是一个耐心的数学老师不要直接给答案要引导学生思考。”当模型收到一次请求时它实际看到的是System Prompt User Prompt 对话历史等组合而成的 Context。但最核心、最直接的任务描述就是 User Prompt。Prompt 为什么重要因为大模型本质上是“文字接龙机器”它根据当前看到的全部文字来预测下一个字。Prompt 就是给它定的“方向”。如果 Prompt 模糊不清比如只说“帮我写点东西”模型可能写诗、写散文、写代码……你无法控制。但如果 Prompt 清晰具体比如“帮我写一封请假的邮件主题是感冒语气正式”模型就能给出你期望的结果。所以有一门“学问”叫Prompt Engineering提示词工程——研究如何把话说清楚让模型精准理解你的意图。不过随着模型越来越聪明现在对 Prompt 精细度的要求已经大大降低了。一个直观的例子没有 System Prompt只有 User Prompt你问“3 5 等于几” → 模型可能直接回答“8”。加了 System Prompt后台设置“你是一个数学老师要引导学生思考。”你问同样的 User Prompt“3 5 等于几” → 模型会回答“我们可以这样想你手里有 3 个苹果又拿来 5 个一共多少个呢”看到了吗同一个 User Prompt因为 System Prompt 不同回答完全不同。而 User Prompt 本身就是你每次发起对话时那句最直接的指令。Prompt 就是大模型当前收到的具体任务或问题。User Prompt 是你给的System Prompt 是开发者预设的规则没有 Prompt模型就不知道要做什么。当你和 ChatGPT 说话时你输入的那句话——就是 Prompt。Tool: (大模型用来感知和影响外部环境的函数)Tool 通俗来讲就是大模型用来感知和影响外部世界的“函数”——它让只会做文字接龙的模型能够真正动手做事。为什么需要 Tool大模型有一个致命弱点它无法感知外部环境。你问它“今天上海的天气怎么样”它会老实回答“抱歉我无法获取实时天气信息。”因为它的知识只来自训练时的数据它不会真的去查天气预报网站也不会帮你发邮件、订机票。但如果我们给模型配上一套Tool工具它就能突破这个限制。Tool 本质上是一个函数——你给它输入它执行操作然后返回结果。比如天气查询工具输入城市和日期输出天气信息。计算器工具输入数学表达式输出计算结果。发送邮件工具输入收件人、主题、正文执行发送并返回成功/失败。有了这些工具大模型就不再是一个“只会说话的鹦鹉”而是一个能动手干活的助手。Tool 是如何工作的整个流程需要四个角色配合用户、大模型、工具、平台平台是一段负责传话的代码。用户提问“上海今天天气怎么样”平台把问题和可用工具列表比如“天气查询工具”一起发给大模型。大模型“思考”用户想知道天气我没有实时数据但有个天气工具可用。于是它输出一段指令不是直接答案比如“调用天气工具参数城市上海日期今天”。平台拿到指令后真的去执行调用天气工具对应的函数拿到结果比如“晴天15-25度”。平台把结果返回给大模型。大模型把结果整理成一句人话“今天上海天气不错晴天温度15到25度。”然后输出给平台平台再转给你。关键点大模型只负责生成调用工具的指令一段特殊格式的文本。真正去执行工具的是平台代码。大模型不能自己打开网页、调API它只能“说”出自己想调哪个工具、传什么参数。Tool 的典型例子天气查询输入城市 → 输出天气计算器输入“3.5 * 7.2” → 输出结果搜索引擎输入关键词 → 输出相关网页摘要数据库查询输入SQL → 输出查询结果发送消息输入接收者和内容 → 输出发送状态控制智能家居输入“关灯” → 输出执行结果Tool 让大模型从“嘴炮”变成“实干家”没有 Tool 的模型只能聊天、写文章、编故事。有 Tool 的模型可以查天气、订票、发邮件、控制设备、分析数据……Tool 的本质就是给大模型提供一套可以调用的外部能力让它能够感知和影响外部环境。而当多个 Tool 组合起来配合模型自主规划调用顺序就形成了Agent智能体——能够自主完成复杂任务。Tool 是大模型伸向外界的一只手——它是一个函数模型通过“说出”调用指令让平台去执行从而获得实时信息或完成实际操作。没有 Tool模型只能纸上谈兵有了 Tool模型就能改变世界。现在你明白了当你问 Siri“明天几点日出”时背后就是大模型调用了天气/天文工具当你让 ChatGPT 帮你算一道微积分它可能调用了计算器工具。这就是 Tool 的魅力。MCP: (统一了工具接入格式的标准协议)MCP 的全称是 Model Context Protocol模型上下文协议。通俗来讲它就是一套统一的标准规定了“工具应该长什么样、怎么被大模型调用”。只要一个工具按照 MCP 标准开发它就能被所有支持 MCP 的大模型平台直接使用一次开发到处运行。为什么需要 MCP回顾一下 Tool 的调用流程大模型要使用一个工具比如天气查询平台需要知道这个工具叫什么、需要哪些参数、怎么去调用它。但问题在于每个大模型平台的接入规范都不一样。你要让一个工具支持 ChatGPT就得按照 OpenAI 的规范写一套接入代码。要让同一个工具支持 Claude又得按 Anthropic 的规范再写一套。要让工具支持 Gemini还得按 Google 的规范再写一套。同一个工具写三遍代码——这就是重复劳动非常低效。MCP 做了什么MCP 就像工具界的 Type-C 接口。在 Type-C 普及之前手机充电口五花八门Micro-USB、Lightning、各种方形口你换一部手机就得换一根线。Type-C 统一了标准一根线能充所有手机。MCP 做的也是同样的事它定义了一套统一的工具接入格式。工具开发者只需要按照 MCP 规范开发一次然后任何支持 MCP 的大模型平台ChatGPT、Claude、Gemini……都可以直接调用这个工具无需为每个平台单独适配。MCP 解决了什么问题对工具开发者一次编码全网通用。大大降低了重复开发成本。对平台方只要支持 MCP就能立刻接入海量现成的工具丰富自己的生态。对用户大模型能调用的工具会越来越多体验越来越好。例如场景没有 MCP有 MCP充电线每个品牌一种接口换手机就得换线Type-C 统一接口一根线充所有工具接入每个平台一套规范工具要写多份代码一套 MCP 规范写一次到处用MCP 是统一工具接入格式的标准协议。它让工具开发者只需写一次代码就能被所有支持 MCP 的大模型平台使用就像 Type-C 让一根充电线能充所有手机一样。如果你想深入了解 MCP 的技术细节比如协议的具体格式、消息类型、传输方式等可以查阅官方文档。但作为概念理解记住“Type-C 接口”这个比喻就够了。MCP 官方文档What is the Model Context Protocol (MCP)? - Model Context ProtocolAgent: (能自主规划和调用工具、直至解决用户问题的程序)Agent 通俗来讲就是一个能够自主规划步骤、反复调用工具直到帮你把问题彻底解决的程序。你可以把它想象成一个聪明的数字员工——你给它一个目标它会自己思考怎么拆解任务、分几步完成、需要用到哪些工具然后一步步去执行最后给你结果。Agent 和普通大模型有什么区别普通大模型你问一句它答一句。遇到需要查天气、算数学、发邮件的事它只能说“我做不到”。即使给了它工具也需要你在对话中手动引导它一步步做。Agent你给一个复杂的目标比如“帮我规划一次去北京的三天旅行”它会自己把任务拆成“查机票、查酒店、查景点、算预算、排行程……”然后自动调用相应的工具一步步完成所有子任务最后给你一个完整的旅行方案。一句话大模型是“嘴”Agent 是“嘴 手 大脑”。一个具体的例子假设你有一个 Agent它可用的工具有天气查询工具、定位工具、店铺搜索工具。你给它一个任务“今天上海天气怎么样如果下雨帮我找找附近卖雨伞的店。”Agent 的“内心活动”如下思考用户问天气我得先知道位置用户已经说了“上海”不需要定位。直接调天气工具。行动调用天气工具参数上海今天 → 得到结果“中雨”。观察下雨了用户还要找雨伞店。思考需要店铺搜索工具参数雨伞位置上海。行动调用店铺工具 → 得到“南京路步行街有3家便利店卖雨伞”。思考所有目标都完成了可以整理答案了。回答“今天上海中雨建议带伞。附近南京路步行街有便利店可以买到雨伞。”整个过程Agent 不需要你一步步指挥它“先查天气……再查店铺……”。它自己会规划、会判断、会决定下一步做什么直到任务完成。Agent 的核心能力自主规划把一个大目标拆成若干小步骤决定先做什么、后做什么。工具调用在需要的时候自动选择合适的工具并传入正确的参数。循环执行调用工具 → 获取结果 → 分析结果 → 决定下一步 → 再调用工具……直到任务完成。容错与调整如果某一步失败比如天气工具无响应Agent 可以换一种方式或告诉用户问题出在哪里。常见的 Agent 例子编程助手如 Cursor、Claude Code你说“帮我写一个登录页面”它会自己创建文件、写代码、运行测试、修复 bug。自动化办公你说“把这封邮件的附件整理成表格”它会下载附件、解析内容、生成 Excel、回复邮件。智能家居管家你说“我睡觉了”它会关灯、锁门、调空调、设闹钟。旅行规划你说“下周去杭州玩两天”它会查高铁票、订酒店、推荐景点、排行程、算总预算。Agent 和普通大模型 工具的区别普通大模型 工具你问“今天天气怎么样”它可能直接调工具给你结果。但如果你问一个多步任务它只会回答“我需要先查天气再查店铺你要我一步步做吗”——它不会自己循环。Agent内置了循环机制和规划能力。它会在内部不断重复“思考→行动→观察”这个循环直到用户的目标达成。Agent 是一个会自己动脑子拆解任务、会自己动手调用工具、会一步步循环执行直到问题彻底解决的程序。它不像普通大模型那样需要你每一步都指挥而是像一个真正的数字员工——你给目标它给结果。现在应该明白了当你听说“AI Agent 是下一个风口”其实就是说未来的 AI 不再只是聊天机器人而是能独立完成工作的智能体。Agent Skill: (给 Agent 看的说明文档)Agent Skill 通俗来讲就是一份提前写好的说明文档——专门给 Agent 看的告诉它“遇到这类任务时应该按什么规则、什么步骤去做”。你可以把它想象成一份员工手册或岗位操作指南。你不需要每次给 Agent 布置任务时都啰嗦一遍规则只要把规则写进 Skill 里Agent 就会自动遵守。为什么需要 Agent Skill假设你想让 Agent 做你的“出门小助手”每次出门前提醒你带什么东西。你的习惯很具体下雨带伞、刮风戴帽子、雾霾戴口罩、风大穿防风外套而且手机必带。你还希望它回答时别啰嗦按固定格式先一句总结再列一个清单。如果没有 Agent Skill你每次出门前都要输入一大段提示词“请帮我查天气如果下雨就提醒带伞刮风提醒戴帽子雾霾提醒戴口罩风大提醒穿防风外套而且无论什么天气都要提醒带手机。回答格式先总结天气然后列出需要带的物品清单。”太反人类了有了 Agent Skill你只需要把这些规则提前写成一份文档告诉 Agent“以后出门提醒就用这个 Skill。”之后你只需要说“我要出门了”Agent 就会自动按规则执行。Agent Skill 长什么样Agent Skill 本质上是一个Markdown 文档分为两层元数据层文档的“身份证”name这个 Skill 的名字比如“go_out_checklist”description简短描述说明这个 Skill 是做什么的指令层具体怎么做目标要完成什么任务执行步骤先做什么、后做什么比如先调天气工具再根据天气判断物品判断规则什么天气对应什么物品下雨→伞刮风→帽子……输出格式必须按什么结构输出总结 清单示例给一个完整的例子让 Agent 更明白示例Agent Skill 文件出行必备清单助手--- name: go_out_checklist description: 根据用户目的地的天气情况智能生成出行必备物品清单。 --- # 出行必备清单助手 ## 目标 你的任务是查询用户指定目的地的天气情况并根据天气状况为用户提供一份精准的出行必备物品清单。 ## 执行步骤 1. **获取天气信息**首先调用 weather_query 工具查询用户指定地点的实时天气或预报。 2. **分析天气状况**读取工具返回的结果重点关注天气现象如晴、雨、雪、大风和温度。 3. **匹配物品规则**根据“判断规则”部分确定需要推荐的物品。 4. **生成最终回答**按照“输出格式”的要求整合天气信息和物品清单输出最终结果。 ## 判断规则 请严格根据以下天气现象匹配对应的物品 - **下雨/阵雨/暴雨**必须推荐 [雨伞/雨衣]。 - **大风/强风**必须推荐 [防风外套/帽子]。 - **晴天/紫外线强**必须推荐 [防晒霜/墨镜/遮阳帽]。 - **气温低于 10°C**必须推荐 [厚外套/围巾]。 - **气温高于 30°C**必须推荐 [小风扇/补水喷雾]。 - **其他情况**推荐 [舒适的鞋子/充电宝]。 注意如果同时满足多个条件例如既下雨又低温请合并推荐物品。 ## 输出格式 请严格按照以下 Markdown 格式输出 ### [地点] 出行建议 **天气概况**[天气状况]气温 [温度] ** 必备清单** - [物品1] - [物品2] - [物品3] ## 示例 **用户输入** 我明天要去杭州出差需要带什么 **工具调用** weather_query(location杭州) - 返回{weather: 小雨, temp: 15°C} **最终回答** ### 杭州 出行建议 **天气概况**小雨气温 15°C ** 必备清单** - 雨伞因为下雨 - 厚外套因为气温较低 - 舒适的鞋子Agent Skill 和 System Prompt 的区别System Prompt全局的、固定的人设或规则比如“你是一个耐心的数学老师”。一般由开发者设置所有对话都生效。Agent Skill针对特定任务场景的详细操作手册可以由用户或开发者编写按需加载。一个 Agent 可以有多个 Skill对应不同的能力出门提醒、邮件写作、数据分析……。Agent Skill 就是给 Agent 看的“说明书”或“操作手册”——你提前把规则、步骤、格式都写清楚Agent 遇到相关任务时就会自动照着做省去你每次重复输入的麻烦。现在你明白了Agent 是“能干活的员工”Agent Skill 就是“教这个员工怎么干活的培训手册”。总结英文术语中文名称核心定义LLM大模型大模型本身Large Language ModelToken词元/令牌大模型处理数据的最基本单元Context上下文大模型每次处理任务时接收到的信息总和Context Window上下文窗口大模型的 Context 最多能够存储的 Token 量Prompt提示词用户或系统当前给大模型下达的具体指令或问题Tool工具大模型用来感知和影响外部环境的函数MCP模型上下文协议统一了工具接入格式的标准协议Agent智能体能自主规划和调用工具、直至解决用户问题的程序Agent Skill智能体技能给 Agent 看的说明文档简单说明LLM (大模型)那个超级聪明的“大脑”。Token大脑认识的最小“积木块”文字切分后的单位。Context (上下文)大脑此刻“脑子里装着的所有信息”包括你的提问和之前的聊天记录。Context Window (上下文窗口)大脑的“短期记忆容量上限”最多能装多少 Token。Prompt (提示词)你给大脑出的“题目”或“指令”。Tool (工具)大脑的“手和眼”比如联网搜索、计算器帮它看世界和做事情。MCP工具的“通用插座标准”让所有工具都能插在大脑上用。Agent (智能体)一个有“大脑”且有“手脚”的完整办事员它不只聊天还能帮你把事办成。Agent Skill (技能)办事员手里的“操作说明书”告诉它怎么用工具。

相关文章:

大模型核心技术概述:Token、Prompt、Tool与Agent的关系详解

你是不是经常听人聊AI时蹦出这些词:LLM、Token、Context、Prompt、Tool、MCP、Agent?听着好像都认识,但真要问“这到底是啥”,又有点懵。今天把这些词一个个拆开揉碎,讲清楚它们到底是啥、有啥用、又是怎么串起来的。 …...

Python AI部署效能革命(Cuvil编译器内核逆向工程实录)

第一章:Python AI部署效能革命的底层驱动力Python 已成为 AI 模型开发的事实标准,但其在生产环境中的部署效能长期受限于解释执行、全局解释器锁(GIL)及内存管理机制。近年来,一场静默却深刻的效能革命正在重塑 Python…...

【LaTex】花体字应用全指南:从基础到高级的字体美化技巧

1. LaTeX花体字入门:为什么需要字体美化? 第一次用LaTeX写论文时,我被导师退回的文档上画满了红圈:"数学符号要用黑板粗体"、"集合论部分需要手写体"、"正文变量用意大利斜体"。当时完全不明白为什…...

卸载软件后,“打开方式”里仍有残留怎么办?我是这样在 Windows 里彻底清理掉的

有时候我们明明已经把某个软件卸载干净了,但右键文件时,“打开方式”列表里依然还能看到它。 这种情况看起来不严重,但确实很烦:一方面影响整洁,另一方面也容易让人误以为软件没有卸载干净。我最近就遇到了这个问题&am…...

别再死记硬背了!用矢量网络分析仪实测PA的P1dB和OIP3(附详细步骤与曲线解读)

矢量网络分析仪实战:PA的P1dB与OIP3测量全流程解析 在射频放大器设计与测试领域,P1dB和OIP3是两个无法绕开的性能指标。许多工程师虽然能背诵定义,但面对实验室里的矢量网络分析仪(VNA)时却无从下手。本文将彻底改变这…...

百川2-13B模型微调实战:提升OpenClaw中文邮件处理准确率

百川2-13B模型微调实战:提升OpenClaw中文邮件处理准确率 1. 问题背景与挑战 去年在尝试用OpenClaw自动化处理公司内部邮件时,我发现了一个棘手的问题:当邮件内容涉及复杂业务术语或非标准表达时,基于通用大模型的OpenClaw经常出…...

responder使用教程

Responder是Kali Linux中一款强大的网络欺骗工具,主要用于在局域网中捕获各种网络协议的认证信息,特别是NTLM哈希。它通过响应LLMNR(链路本地多播名称解析)、NBT-NS(NetBIOS名称服务)和mDNS(多播…...

嵌入式开发硬件知识体系与核心技能解析

嵌入式开发中的硬件知识体系构建1. 嵌入式开发的技术架构1.1 嵌入式系统技术分类现代嵌入式系统开发主要分为两大技术方向:嵌入式硬件开发:聚焦电路原理设计、PCB布局及硬件系统集成嵌入式软件开发:包含驱动层开发和应用程序开发两个层级1.2 …...

BlueprintJS:企业级React组件库的架构设计与实战应用

BlueprintJS:企业级React组件库的架构设计与实战应用 【免费下载链接】blueprint A React-based UI toolkit for the web 项目地址: https://gitcode.com/gh_mirrors/bl/blueprint 在现代企业级Web应用开发中,UI框架的选择直接影响开发效率、产品…...

霍尔电流传感器原理与应用全解析

霍尔电流传感器测量原理深度解析 1. 霍尔效应电流测量基础 1.1 霍尔效应原理 霍尔效应是电流测量的基础物理现象,当导体或半导体薄片置于磁场中,并在其两端施加控制电流时,垂直于电流和磁场方向的两侧会产生电势差,这种现象称为…...

和芯星通车规级GNSS模块UM670A:双频定位技术如何赋能智能驾驶

1. 双频定位技术如何让汽车"看得更准" 开车时最怕什么?导航突然漂移算一个。明明在高架上,地图却显示你在旁边小区里转悠——这种尴尬很多车主都遇到过。问题的根源往往在于传统单频定位的精度不足。和芯星通UM670A模块采用的双频定位技术&…...

从LED驱动到充电桩:拆解PFC双环控制在5个真实产品里的不同玩法

从LED驱动到充电桩:拆解PFC双环控制在5个真实产品里的不同玩法 当你在深夜加班时,LED驱动电源的稳定输出让办公室保持明亮;当你为电动车充电时,充电桩高效转换着电网能量;这些场景背后都离不开一个关键技术——PFC双环…...

虚拟机自动化新范式:CUA Computer SDK十分钟入门指南

虚拟机自动化新范式:CUA Computer SDK十分钟入门指南 【免费下载链接】cua Create and run high-performance macOS and Linux VMs on Apple Silicon, with built-in support for AI agents. 项目地址: https://gitcode.com/GitHub_Trending/cua/cua 在当今的…...

DeepFace模型预加载优化指南:从延迟痛点到秒级启动的全方案解析

DeepFace模型预加载优化指南:从延迟痛点到秒级启动的全方案解析 【免费下载链接】deepface A Lightweight Face Recognition and Facial Attribute Analysis (Age, Gender, Emotion and Race) Library for Python 项目地址: https://gitcode.com/GitHub_Trending/…...

2026年各高校论文AI率新规汇总:双一流和普通院校标准差异

2026年各高校论文AI率新规汇总:双一流和普通院校标准差异 同一篇论文,知网52%,维普38%,万方21%。 为什么差这么多?不是平台乱搞,而是检测算法和判断标准不一样。理解了高校AI率新规背后的逻辑&#xff0c…...

LeetCode知识点总结 - 524

LeetCode 524. Longest Word in Dictionary through Deleting考点难度ArrayMedium题目 Given a string s and a string array dictionary, return the longest string in the dictionary that can be formed by deleting some of the given string characters. If there is mor…...

大麦抢票自动化工具:3分钟提升10倍成功率的技术秘籍

大麦抢票自动化工具:3分钟提升10倍成功率的技术秘籍 【免费下载链接】ticket-purchase 大麦自动抢票,支持人员、城市、日期场次、价格选择 项目地址: https://gitcode.com/GitHub_Trending/ti/ticket-purchase 你是否经历过这样的场景&#xff1f…...

3分钟从想法到3D模型:Hunyuan3D-2如何帮你实现创作自由

3分钟从想法到3D模型:Hunyuan3D-2如何帮你实现创作自由 【免费下载链接】Hunyuan3D-2 High-Resolution 3D Assets Generation with Large Scale Hunyuan3D Diffusion Models. 项目地址: https://gitcode.com/GitHub_Trending/hu/Hunyuan3D-2 想象一下&#x…...

深度解析:Live2D Widget WebSocket实时交互架构实践

深度解析:Live2D Widget WebSocket实时交互架构实践 【免费下载链接】live2d-widget 把萌萌哒的看板娘抱回家 (ノ≧∇≦)ノ | Live2D widget for web platform 项目地址: https://gitcode.com/gh_mirrors/li/live2d-widget 在当今Web应用追求沉浸式体验的浪潮…...

别再纠结了!手把手教你根据团队规模和技术栈选对存储方案(Ceph vs MinIO实战对比)

技术选型实战:Ceph与MinIO的团队适配决策框架 当技术负责人面对存储方案选型时,往往陷入"功能强大"与"简单易用"的两难抉择。我曾见证过一家50人规模的AI创业公司,因盲目选择Ceph导致三个月后不得不重构基础设施——他们…...

2026年西安SEO优化指南:如何甄选靠谱的本地排名服务商

在西安,无论是传统制造业、文旅产业,还是新兴的科技公司,都面临着同一个问题:如何在搜索引擎上被潜在客户快速找到?搜索引擎优化(SEO)已成为企业线上获客的“必修课”。然而,市场服务…...

CTF新手必看:用Audacity搞定音频隐写题的保姆级指南(附频谱图实战)

CTF音频隐写实战:用Audacity从频谱图中挖出Flag的终极技巧 第一次参加CTF比赛时,我盯着那道音频隐写题整整半小时毫无头绪——直到一位前辈轻描淡写地说:"试试把频谱图调成对数刻度"。这个简单操作瞬间让隐藏在8kHz频率的Flag清晰可…...

高效文件同步:SyncTrayzor在Windows上的完整解决方案

高效文件同步:SyncTrayzor在Windows上的完整解决方案 【免费下载链接】SyncTrayzor Windows tray utility / filesystem watcher / launcher for Syncthing 项目地址: https://gitcode.com/gh_mirrors/sy/SyncTrayzor SyncTrayzor是Windows平台上最实用的Syn…...

从FreeRTOS到VxWorks:手把手教你根据项目预算和芯片选型,挑对那个最合适的RTOS

从FreeRTOS到VxWorks:嵌入式项目RTOS选型实战指南 当你拿到一份新的产品需求文档,面对琳琅满目的实时操作系统(RTOS)选项时,是否曾陷入选择困难?FreeRTOS免费但功能有限,VxWorks强大却价格不菲&…...

人流后怎么吃恢复快?科学修护与饮食指南

引言:人流手术作为常见的妇科微创操作,术后身体修护与饮食调理直接影响恢复效果,也是女性关注的核心问题。不少女性在术后陷入“盲目食补”的误区,忽视了生殖系统损伤的精准修护,导致恢复周期延长、并发症风险升高。本…...

OpenClaw+GLM-4.7-Flash:研究者的文献收集与分析助手

OpenClawGLM-4.7-Flash:研究者的文献收集与分析助手 1. 为什么需要自动化文献助手 作为一名经常需要查阅大量文献的研究者,我过去每天要花费数小时在不同学术平台间切换——从arXiv到PubMed,再到学校图书馆的订阅期刊。最痛苦的不是阅读本身…...

电源键按下去后发生了什么?用Wireshark+日志分析揭秘操作系统启动的隐藏细节

电源键背后的技术探秘:用Wireshark与日志分析揭开系统启动的黑盒 当你按下电源键的那一刻,整台计算机仿佛被注入了生命。但在这个看似简单的动作背后,隐藏着一场精密编排的技术交响乐。作为运维工程师或开发者,理解这个过程不仅有…...

Wii Nunchuk嵌入式驱动库:I²C协议解析与跨平台适配

1. WiiChuck库概述:面向嵌入式系统的Wii Nunchuk通用适配框架WiiChuck是一个专为嵌入式平台设计的Wii Nunchuk(任天堂Wiimote扩展手柄)通用驱动库,其核心定位是提供跨平台、可裁剪、高可靠性的IC通信接口抽象层。该库并非简单封装…...

别再为Win32::Console报错发愁了!用Strawberry Perl+VS Build Tools搞定Tongsuo国密编译

攻克Windows下Tongsuo国密编译的三大拦路虎:Strawberry PerlVS Build Tools实战指南 在Windows平台编译Tongsuo(铜锁)国密库时,开发者往往会遇到一系列令人抓狂的依赖问题。从Perl模块缺失到工具链混乱,再到64位汇编支…...

DanKoe 视频笔记:写作技能:掌握写作,驾驭未来十年

概述 在本节课中,我们将要学习为什么写作是未来十年最重要的元技能,以及如何通过一个清晰的六步框架和一套实用的写作方法,开启你的个人写作事业。我们将探讨写作如何放大你的其他技能,并为你提供一套从零开始构建影响力的具体行…...