当前位置: 首页 > article >正文

提示工程 vs 微调 vs RAG

项目进行了三周我有了一个微调过的模型。数千个训练样本。一张让我皱眉的GPU账单。响应质量是……完全可以通过一个精心设计的系统提示达到的水平。我花了三周时间微调而我其实只需要三小时的提示工程。这是应用AI中最昂贵的错误之一——不是因为微调不好而是因为它被团队过早、过频繁地采用而这些团队还没有一个框架来判断每种方法何时适用。从那以后我咨询过六七个犯了同样错误的团队。这篇文章是我希望我当初就有的指南。1、我们实际上在谈论什么在我们进入决策框架之前让我们确保我们精确地使用这些术语因为它们经常被混淆造成困惑。提示工程是制作输入的实践——系统提示、指令、示例、上下文——以引导预训练模型朝向你想要的输出。模型的权重不会改变。你调整的是输入什么而不是模型是什么。微调是使用你自己的数据集在预训练模型上继续训练的过程更新模型的权重以更好地适应你的特定任务、领域或风格。你在改变模型是什么。还有第三种技术经常与两者混淆检索增强生成RAG你在推理时将相关上下文通常来自向量数据库动态注入到你的提示中。这值得了解因为它解决了许多人错误地选择微调来解决的问题——下面会有更多内容。2、决策框架从这里开始在构建任何东西之前按顺序问这五个问题1. 一个精心制作的带示例的提示能解决这个问题吗 → 是始终首先使用提示工程。 2. 问题是模型缺乏它不可能拥有的*知识*吗 → 是使用RAG动态上下文注入而不是微调。 3. 问题是规模化下的*风格*、*格式*或*行为*一致性吗 → 是微调是一个强有力的候选方案。 4. 你有50-1000个高质量的标记示例吗 → 否你还没有准备好微调。先构建数据集。 5. 性能提升是否证明成本合理 → 计算一下。微调不是免费的。大多数跳到微调的团队在没有真正尝试之前就回答了问题1的否。他们测试了一两个提示看到了不完美的结果就得出结论说模型需要训练。几乎总是提示需要迭代而不是模型。3、何时使用提示工程提示工程应该是你的默认选择——你的第一个也是通常唯一的工具。它是快速—— 以分钟为单位迭代而不是小时便宜—— 没有训练成本没有基础设施可逆—— 更改你的提示立即看到新结果可移植—— 在模型提供商之间切换而无需返工它最适合的情况是任务在预训练模型的能力范围内摘要、分类、代码生成、提取你需要快速适应变化的需求你希望模型拥有最新的世界知识微调模型不会获得知识更新你的生产量适中在中等规模下API调用具有成本效益4、强提示的解剖弱提示产生不一致的结果。强提示有结构# 弱模糊没有示例没有约束 prompt 分类这条客户消息。 # 强明确的角色、任务、格式、约束和示例 system_prompt 你是B2B SaaS公司的客户支持路由助手。 你的任务是将收到的支持消息准确地分类到以下之一 - BILLING关于发票、订阅、支付方式的问题 - TECHNICALBug、错误、集成问题、性能问题 - FEATURE_REQUEST新功能请求 - GENERAL其他一切 规则 - 只回复类别标签其他什么都不说 - 如果你不确定在两个类别之间选择需要更快行动的那个 - 如果两者都适用TECHNICAL优先于BILLING技术问题会阻塞用户 示例 消息我的发票显示上个月重复计费 类别BILLING 消息自从昨天的更新后API在/users端点返回500错误 类别TECHNICAL 消息如果能导出PDF报告就好了 类别FEATURE_REQUEST user_message 我们尝试连接Salesforce集成时遇到OAuth错误 # 预期输出TECHNICAL注意这个提示做了什么定义了明确的角色给出了详尽、互斥的类别明确说明了平局决胜规则提供了具体示例few-shot仅此一项就能处理绝大多数分类任务而无需接触模型权重。5、值得了解的高级提示技术思维链CoT对于复杂的推理任务要求模型在给出答案之前逐步思考。在多步问题上可测量地提高准确性。prompt 分析以下季度收入数据识别最重要的趋势。 逐步思考 1. 原始数据显示了什么 2. 有季节性模式吗 3. 同比比较如何 4. 哪个单一趋势最需要领导层关注 数据{data} 自一致性多次运行相同的提示并聚合结果。对于偶尔出现错误成本高昂的高风险分类很有用。输出脚手架提供模型响应的开头以强制特定格式messages [ {role: user, content: 总结这次会议记录{transcript}}, {role: assistant, content: ## 会议摘要\n\n**关键决策**\n} # 脚手架输出格式 ]6、何时使用微调当你真正达到提示工程的天花板时——而不是你想象的——微调才值得它的复杂性。它最适合的情况是规模化下的风格和语气一致性。如果你的品牌需要非常特定的声音——随意但专业、技术精确但无行话——而且你需要在数百万输出中保持这种风格微调将这种风格嵌入到模型中而不是每次都需要提示。具有自定义逻辑的复杂多步任务。如果你的任务需要模型遵循一个有20多个分支的决策树或处理难以在提示中详尽指定的边缘情况微调模型可以内化这种逻辑。具有自己词汇表的专业领域。医学、法律和技术领域经常使用基础模型处理不佳的术语和推理模式。在领域特定示例上进行微调可显著提高质量。高容量、延迟敏感的生产。微调后的小模型可以在特定任务上匹配大模型的质量——但推理成本和延迟只有一小部分。如果你每天运行数百万次推理调用这一点非常重要。何时不微调你的基础模型缺乏回答所需的知识改用RAG——你无法微调进原始训练数据中没有的知识你的高质量示例少于50个你会过拟合你的需求经常变化微调模型不容易更新你还没有用尽提示工程说真的先更努力试试8、真实世界对比让我们用一个具体任务来具体说明从医疗入院表格中提取结构化数据。表格以不一致的格式输入。你需要提取患者姓名、主诉、症状、持续时间以及严重程度1-10。8.1 提示工程方法import anthropic import json client anthropic.Anthropic() EXTRACTION_PROMPT 你是医疗数据提取助手。从以下患者入院表格中提取结构化信息。 只返回有效的JSON使用以下确切结构 { patient_name: string or null, chief_complaint: string - one sentence, symptoms: [list, of, symptoms], duration: string - e.g., 3 days, 2 weeks, unknown, severity: integer from 1-10 or null } 如果字段缺失或不清楚使用null。 示例 输入John Smith今天来看病说他过去一周一直头痛得厉害。他把疼痛评为8/10还提到有些恶心。 输出{patient_name: John Smith, chief_complaint: Severe headaches for one week, symptoms: [headaches, nausea], duration: 1 week, severity: 8} 输入{intake_form} 输出 def extract_intake_data(form_text: str) - dict: message client.messages.create( modelclaude-opus-4-5, max_tokens512, messages[ { role: user, content: EXTRACTION_PROMPT.format(intake_formform_text) } ] ) try: raw message.content[0].text.strip() return json.loads(raw) except json.JSONDecodeError as e: print(fParse error: {e}\nRaw output: {raw}) return {} # 测试 result extract_intake_data( Maria Gonzalez34岁女性。报告昨天开始出现剧烈胸痛 评为6/10。还出现呼吸急促和轻微头晕。 无既往心脏病史。 ) print(json.dumps(result, indent2)) # 输出 # { # patient_name: Maria Gonzalez, # chief_complaint: Sharp chest pain since yesterday, # symptoms: [sharp chest pain, shortness of breath, mild dizziness], # duration: 1 day, # severity: 6 # }这效果很好。对于大多数用例就在这里停止。8.2 微调对这个任务有意义的情况如果你每月处理500,000份入院表格使用前沿模型的提示成本约为每月3,000-5,000美元。微调后的小模型可能以每月300-500美元的成本处理相同的任务。在这种规模下微调的投资回报是显而易见的。或者如果你的诊所使用高度专业化的术语复杂的肿瘤治疗记录、罕见疾病分类在你特定文档上微调的模型将优于即使仔细提示的效果。8.3 微调数据现实检查微调只有你的训练数据好它才好。这是大多数微调项目失败的地方——不是在训练过程本身而是在数据质量上。8.4 最小可行数据集# 微调数据格式OpenAI/大多数提供商 training_examples [ { messages: [ {role: system, content: 你从医疗入院表格中提取结构化数据。}, {role: user, content: 患者入院John Smith严重头痛8/101周。}, {role: assistant, content: {patient_name: John Smith, chief_complaint: Severe headache, symptoms: [headache], duration: 1 week, severity: 8}} ] }, # ... 至少还需要49个示例 ] # 高质量训练数据的规则 # 1. 明确覆盖你的边缘情况 # 2. 包含优雅处理null的示例 # 3. 确保格式一致性 - 一个坏示例会降低质量 # 4. 大多数任务目标200-500个示例复杂任务1000 # 5. 训练前手动验证每个示例数据质量的80/20法则20%的训练示例将代表80%的质量提升。那20%是你最难、最细致入微的边缘情况。把大部分数据整理时间花在那里。8.5 数据集验证脚本import json from pathlib import Path def validate_fine_tuning_dataset(filepath: str) - dict: 验证JSONL微调数据集的常见问题。 issues [] examples [] with open(filepath) as f: for i, line in enumerate(f): try: example json.loads(line) examples.append(example) except json.JSONDecodeError as e: issues.append(fLine {i1}: Invalid JSON - {e}) continue # 检查结构 if messages not in example: issues.append(fLine {i1}: Missing messages key) continue messages example[messages] roles [m.get(role) for m in messages] if assistant not in roles: issues.append(fLine {i1}: No assistant message found) # 检查空内容 for j, msg in enumerate(messages): if not msg.get(content, ).strip(): issues.append(fLine {i1}, message {j1}: Empty content) return { total_examples: len(examples), issues_found: len(issues), issues: issues[:10], # 显示前10个 ready_to_train: len(issues) 0 and len(examples) 50 } report validate_fine_tuning_dataset(training_data.jsonl) print(json.dumps(report, indent2))9、RAG中间地带许多团队在提示工程和微调之间选择而正确的答案是RAG。以下是什么时候使用它问题解决方案模型不知道你的产品文档RAG —— 在查询时注入相关文档模型需要访问最近的事件RAG —— 检索新鲜数据模型需要引用特定来源RAG —— 在上下文中包含检索到的来源模型给出不一致的格式提示工程模型对你的体量来说太贵微调一个更小的模型10、成本和性能对比这是真实世界的数学不是营销方法设置时间前期成本推理成本灵活性最适合提示工程几小时~$0$$$大模型非常高大多数用例RAG几天$基础设施$$高知识密集型任务微调几周$$$$小模型低高容量、关键风格突破性洞察微调通常不是关于质量而是关于经济性。在特定任务上微调后的GPT-3.5或Claude Haiku模型可以以GPT-4质量的10%推理成本匹配——前提是你有足够的训练数据和范围明确的任务。11、实用建议始终从提示工程开始。构建一个可靠的提示。在50-100个真实示例上测试它。测量质量。只有当你真正遇到天花板时才继续微调。评估提示质量时使用评分标准。不要凭感觉。定义正确意味着什么在保留集上评估计算准确率或F1分数并跟踪变化。如果你决定微调首先大力投资数据质量。你的模型只会和你的训练集一样好。为数据整理预算60-70%的项目时间。模型更新后重新评估提示工程。GPT-4.5、Claude 4和其他前沿模型比去年好得多。2023年需要微调的任务在2025年可能用提示就能解决。对于企业用例考虑两者都用。对于高容量核心任务使用微调模型对于边缘情况和新任务使用提示工程的前沿模型。这种混合方法让你在保持灵活性的同时获得成本效益。12、底线提示工程和微调不是竞争对手——它们是具有不同工作的工具。错误不是使用其中一个而不是另一个而是在没有首先理解你实际上试图解决什么问题的情况下就使用任何一个。如果你还没有投入生产使用提示工程。如果你每月处理数百万次调用并且有一个稳定、定义明确的任务微调的经济性开始变得有吸引力。如果你的问题是模型不知道某些东西在两者之前先选择RAG。做对的工程师将更快交付更好的AI产品——他们会通过抵制在穷尽简单性之前就追求复杂性的冲动来做到这一点。原文链接提示工程 vs 微调 vs RAG - 汇智网

相关文章:

提示工程 vs 微调 vs RAG

项目进行了三周,我有了一个微调过的模型。数千个训练样本。一张让我皱眉的GPU账单。响应质量是……完全可以通过一个精心设计的系统提示达到的水平。 我花了三周时间微调,而我其实只需要三小时的提示工程。 这是应用AI中最昂贵的错误之一——不是因为微…...

递归实现C语言菱形图案打印

以下是使用递归函数实现的C语言程序&#xff0c;用于打印菱形图案。程序通过两个递归函数分别处理菱形的上半部分和下半部分&#xff0c;避免了循环结构&#xff1a;#include <stdio.h>// 递归打印空格 void print_spaces(int n) {if (n < 0) return;printf(" &q…...

大型语言模型中的上下文工程挑战与RW-Steering解决方案

1. 大型语言模型中的上下文工程挑战在当今AI技术快速发展的背景下&#xff0c;大型语言模型(LLM)已成为信息处理和生成的核心工具。这些模型通过吸收和理解输入上下文来生成响应&#xff0c;这种能力被称为"上下文学习"(In-Context Learning, ICL)。然而&#xff0c;…...

手把手教你学Simulink——基于Simulink的磁耦合谐振式无线充电恒流/恒压切换控制

目录 手把手教你学Simulink ——基于Simulink的磁耦合谐振式无线充电恒流/恒压切换控制 一、引言:为什么需要“CC/CV切换”? 二、系统架构与切换逻辑 1. 整体控制框架 2. LCC-S的双模工作原理 三、核心控制模块详解 第一步:切换决策器设计 1. 切换阈值设定 2. Simu…...

从反爬角度:Playwright CDP 模式、Playwright 传统模式与 DrissionPage 的比较

引言&#xff1a;反爬检测的战场升级在当今的Web数据采集领域&#xff0c;反爬虫技术已经从简单的请求频率限制发展到复杂的浏览器指纹识别和行为分析。自动化工具的选择直接决定了爬虫项目的成败。本文将从反爬检测的核心角度&#xff0c;深入分析三种主流自动化框架&#xff…...

手把手教你学Simulink——基于Simulink的动态无线充电(DWPT)车辆移动建模与功率调节

目录 手把手教你学Simulink ——基于Simulink的动态无线充电&#xff08;DWPT&#xff09;车辆移动建模与功率调节 一、引言&#xff1a;让电动汽车“边跑边充” 二、DWPT系统架构与关键问题 1. 系统组成 2. 核心挑战分析 三、车辆移动建模&#xff08;Simulink实现&…...

树莓派RP2040在工业PLC中的创新应用

1. Iono RP工业PLC概述&#xff1a;基于树莓派RP2040的创新设计在工业自动化领域&#xff0c;可编程逻辑控制器(PLC)长期被传统大厂垄断&#xff0c;而Sfera Labs推出的Iono RP系列打破了这一格局。这款采用树莓派RP2040微控制器的紧凑型PLC模块&#xff0c;将开源硬件生态带入…...

论文送检前AI率高:嘎嘎降AI实测降到5%以内全程2026

论文送检前AI率高&#xff1a;嘎嘎降AI实测降到5%以内全程2026 送检前 24 小时是最焦虑的时间窗。学校通常只给一次正式送检机会&#xff0c;AI 率超标的稿子直接打回意味着延期答辩、补检甚至延毕。这篇把"送检前 24 小时如何用嘎嘎降AI 把 AI 率稳定降到 5% 以内"的…...

c++怎么将两个有序的文本文件合并成一个新的有序文件【实战】

应使用归并而非排序&#xff1a;逐行读取两文件&#xff0c;比较后写入较小行&#xff0c;一文件耗尽后直接复制另一文件剩余行&#xff1b;用getline返回值判断读取状态&#xff0c;避免eof()陷阱&#xff1b;注意CRLF换行符导致的 残留问题。用 std::ifstream 和 std::ofstre…...

GodotPckTool深度解析:从零构建高效游戏资源打包系统

GodotPckTool深度解析&#xff1a;从零构建高效游戏资源打包系统 【免费下载链接】GodotPckTool Standalone tool for extracting and creating Godot .pck files 项目地址: https://gitcode.com/gh_mirrors/go/GodotPckTool GodotPckTool是一款专为Godot游戏引擎设计的…...

AIGC率突然飙升怎么救:嘎嘎降AI实测降幅60%+全程2026

AIGC率突然飙升怎么救&#xff1a;嘎嘎降AI实测降幅60%全程2026 答辩前一周&#xff0c;把上周还显示 28% 的稿子重新跑了一遍知网 AIGC&#xff0c;结果跳到了 71.3%。同款情况维普也出现&#xff0c;从 33% 涨到 68%。截止日就在眼前&#xff0c;不能慢慢摸索&#xff0c;需要…...

知网AI率53%紧急压低:嘎嘎降AI 35分钟出结果实测2026

知网AI率53%紧急压低&#xff1a;嘎嘎降AI 35分钟出结果实测2026 知网 AIGC 报告打开是 53.4%&#xff0c;离学校 20% 红线还差着两倍。送检前一天的下午接到这个数字&#xff0c;很多人第一反应是放弃这一稿重新写。嘎嘎降AI&#xff08;www.aigcleaner.com&#xff09;做的事…...

离散扩散模型在自动驾驶轨迹生成中的应用与优化

1. 离散扩散模型与自动驾驶轨迹生成的融合创新自动驾驶技术近年来取得了长足进步&#xff0c;但轨迹生成环节仍面临诸多挑战。传统方法如基于规则的系统需要大量人工设计&#xff0c;而纯学习型方法又难以保证安全性。离散扩散模型&#xff08;Discrete Diffusion Models&#…...

避坑指南:STM32硬件SPI与模拟SPI驱动W25Q64,哪种更适合你的项目?

STM32硬件SPI与模拟SPI驱动W25Q64的深度对比与选型指南 在嵌入式系统开发中&#xff0c;外部存储器的选择与驱动方式往往决定了项目的性能上限与开发效率。W25Q64作为一款64Mbit的串行Flash存储器&#xff0c;凭借其灵活的SPI接口和稳定的性能&#xff0c;成为众多STM32项目的首…...

VS Code Copilot Next 面试突围手册(2024最新版):覆盖12个核心考点与企业级配置陷阱

更多请点击&#xff1a; https://intelliparadigm.com 第一章&#xff1a;VS Code Copilot Next 自动化工作流配置 面试题汇总 VS Code Copilot Next 作为 GitHub 官方深度集成的下一代智能编程助手&#xff0c;其自动化工作流配置能力已成为中高级前端与全栈工程师面试中的高…...

html标签如何防止XSS攻击_特殊字符转义必要性【技巧】

...

2026最新软件测试面试八股文(含答案+文档)

&#x1f345; 点击文末小卡片&#xff0c;免费获取软件测试全套资料&#xff0c;资料在手&#xff0c;涨薪更快 以下是软件测试相关的面试题及答案&#xff0c;希望对各位能有帮助&#xff01;1、测试分为哪几个阶段?一般来说分为5个阶段&#xff1a;单元测试、集成测试、确…...

NVIDIA Jetson Orin边缘AI计算机配置与应用指南

1. Compulab EdgeAI-ORN 工业级边缘AI计算机概述Compulab EdgeAI-ORN是一款基于NVIDIA Jetson Orin NX/Nano系统模块设计的工业级边缘AI计算设备。作为专为计算机视觉和AI工作负载优化的嵌入式解决方案&#xff0c;这款设备在紧凑的15713059mm机身内集成了强大的AI算力和丰富的…...

AI对话中的隐私保护与法律合规实践

1. 项目概述&#xff1a;当AI成为对话参与者去年处理一个企业咨询案例时&#xff0c;客户突然问我&#xff1a;"如果我和AI说的话被第三方听到&#xff0c;这算泄密吗&#xff1f;"这个问题让我意识到&#xff0c;人类与AI的对话已经涉及到法律和伦理的灰色地带。当我…...

『Web安全』入门级实战教程——Web基础(一)

『Web安全』入门级实战教程——Web基础&#xff08;一&#xff09; 这是一个为开发、运维及安全从业者构建的&#xff1a; 系统的拆解Web安全的关键领域。 内容涵盖 “原理深入-实战驱动-体系构建” 为你提供一条清晰的进阶路径。 使你在面任何新型漏洞时&#xff0c;迅速定…...

EmbedIQ:为AI编码助手生成确定性配置的工程实践

1. 项目概述&#xff1a;EmbedIQ&#xff0c;一个为AI编码助手生成生产级配置的确定性工具如果你和我一样&#xff0c;在过去一年里尝试过Claude Code、Cursor、GitHub Copilot这些AI编码助手&#xff0c;那你一定经历过这个循环&#xff1a;每次新建一个项目&#xff0c;或者换…...

大语言模型如何提升学术研究效率

1. 大语言模型在学术研究中的应用概述大语言模型&#xff08;LLM&#xff09;正在深刻改变学术研究的工作范式。作为一名长期从事跨学科研究的学者&#xff0c;我亲身体验到这些工具如何系统性地提升研究效率。当前主流模型如GPT-5、Gemini 2.5 Pro和Claude 3系列&#xff0c;在…...

从源码交付到低代码集成:解析 GB28181/RTSP 视频中台的二次开发架构,如何节省 95% 开发成本?

从源码交付到低代码集成&#xff1a;解析 GB28181/RTSP 视频中台的二次开发架构&#xff0c;如何节省 95% 开发成本&#xff1f; 引言&#xff1a;安防开发者的“围城” 作为一名深耕安防领域十年的架构师&#xff0c;我见过太多集成商在项目落地的最后一步“踩坑”&#xff…...

【仅限前500名】VS Code MCP生态白皮书(含未公开API文档+3大厂商私有扩展协议逆向表)

更多请点击&#xff1a; https://intelliparadigm.com 第一章&#xff1a;VS Code MCP插件生态概览与白皮书价值定位 MCP&#xff08;Model Communication Protocol&#xff09;是微软联合开源社区推出的标准化协议&#xff0c;旨在统一大模型能力在编辑器中的调用方式。VS Co…...

告别协议碎片化:基于 GB28181 与 RTSP 的统一 AI 视频中台架构实现(附 Docker 源码交付方案)

引言&#xff1a;安防集成商的“协议地狱” 在安防系统集成领域&#xff0c;开发者最头疼的往往不是算法本身&#xff0c;而是设备接入的异构性。海康、大华、宇视等厂商协议各异&#xff0c;如何在同一套业务系统中既能顺畅调用 GB28181 国标流&#xff0c;又能低延迟处理 RT…...

突发!索尼PS商店多款游戏将下架:涉及《战地》 EPIC

外媒PushSquare带来最新消息&#xff0c;继三、四月多轮游戏下架与服务器关停潮后&#xff0c;PS商店近两月整体调整节奏放缓&#xff0c;但仍有六款以上PS4、PS5作品&#xff0c;将陆续迎来下架、停服与运营终止等变动。游民星空其中&#xff0c;《战地&#xff1a;硬仗》PS4版…...

Pearcleaner:macOS应用彻底清理的终极指南

Pearcleaner&#xff1a;macOS应用彻底清理的终极指南 【免费下载链接】Pearcleaner A free, source-available and fair-code licensed mac app cleaner 项目地址: https://gitcode.com/gh_mirrors/pe/Pearcleaner 你是否曾经好奇&#xff0c;为什么在macOS上删除应用后…...

XHS-Downloader:小红书内容采集与无水印下载的完整技术指南

XHS-Downloader&#xff1a;小红书内容采集与无水印下载的完整技术指南 【免费下载链接】XHS-Downloader 小红书&#xff08;XiaoHongShu、RedNote&#xff09;链接提取/作品采集工具&#xff1a;提取账号发布、收藏、点赞、专辑作品链接&#xff1b;提取搜索结果作品、用户链接…...

Jmeter接口测试与性能测试详解

&#x1f345; 点击文末小卡片 &#xff0c;免费获取软件测试全套资料&#xff0c;资料在手&#xff0c;涨薪更快 jmeter是apache公司基于java开发的一款开源压力测试工具&#xff0c;体积小&#xff0c;功能全&#xff0c;使用方便&#xff0c;是一个比较轻量级的测试工具&…...

Bapaco机械键盘PC:x86计算平台与超宽触摸屏的创新融合

1. Bapaco机械键盘PC概述Bapaco是一款由深圳SIDIQIAO科技公司开发的创新型机械键盘PC设备&#xff0c;它将完整的x86计算平台与机械键盘和12.3英寸超宽触摸屏整合在一个紧凑的机身中。这款设备采用了Intel第12代Alder Lake架构的Core i5-1235U处理器&#xff0c;配备10核12线程…...