当前位置: 首页 > article >正文

大模型应用落地:新手/程序员必备五类关键技术选型指南(收藏版)

大模型应用落地新手/程序员必备五类关键技术选型指南收藏版本文从产品经理视角出发详细介绍了大模型应用落地的五类关键技术Prompt、RAG、Workflow、Agent、模型微调及其适用场景。强调技术选型应遵循如无必要勿增实体原则从用户实际场景出发平衡成本、效率和体验。Prompt适合轻量任务RAG需答案可追溯Workflow适合多步骤协作Agent能自主规划执行微调则针对高频固定任务。技术选型应基于问题类型选择最合适而非最先进的技术方案。大模型应用落地时的技术选型在产品经理视角实现AI应用落地如何做好AI技术选型非常很重要产品实现最终还是需从用户实际场景出发去平衡成本、效率和体验。最牛的技术不一定能兼容所有场景按OpenAI对AGI的五层分类 Chatbot、Reasoner、Agent、Innovator、Organization。当前像Cursor、Manus这类Agent企业是先进生产力代表了但也不适合用Agent去解决所有问题。产品设计界一句老话 “如无必要勿增实体”在AI应用领域同样适用。在落地AI应用过程中常使用到Prompt、RAG、Workflow、Agent 、模型微调五类关键技术这五类技术分别适用于不同的场景在选型过程中可以根据技术特性去执行落地。先说结论怎么选用“问题类型”来对号入座只要“写得像样就行”广告文案、新闻摘要→ 先用 Prompt。加上输出格式校验够用且快。“必须说对事实”且依赖内部资料产品政策、合规口径→ 用 RAG让答案有引用可追溯。“一步做不完需要审校/回退/多人协作”合同审核、报表发布→ 上 Workflow把节点明文化。“要自己会想、会找、会串API”拉数→分析→生成方案→建工单→ 试受限型 Agent明确边界与停止条件。“高频固定任务要又稳又省”品牌风格文案、结构化抽取→ 在已有闭环基础上做 SFT 微调。一、Prompt快速起步与可观测的提示工程作用定义模型角色、任务目标、输入输出格式与约束是最轻量的“产品功能”实现方式。Prompt像一张写作提纲适合不需要特定知识、逻辑链条较短的创造性或归纳性任务。价值 零训练成本、即时生效、灵活性极高。缺点容易产生幻觉胡编乱造且无法处理多步骤复杂问题。例子活动文案、邮件改写、接口调用草案自然语言→JSON。1、如何用好它一份好的提示词框架可以包含以下六要素1角色 (Role)2任务 (Task)3背景/上下文 (Context)4要求/约束 (Constraints)5范例 (Example) (可选但强烈推荐)6目标/风格 (Goal/Style)一个糟糕的提示词“写一篇关于健康的文章。”运用模板后的优秀提示词【角色】 你是一位经验丰富的健康营养师。【任务】 撰写一篇科普短文【背景】 向30-40岁的办公室白领介绍如何通过调整饮食来缓解久坐带来的健康问题。【要求/约束】 文章需要包含3个具体的饮食建议每个建议配一个简单的食谱例子。文章风格要轻松易懂避免使用难懂的医学术语。字数在600字左右以Markdown格式输出包含标题和小标题。【范例】 例如第一个建议可以是“增加膳食纤维摄入”食谱例子是“一份燕麦莓果早餐杯”。【目标】 目的是让读者感到实用和可行并愿意立即尝试。提示词撰写进阶1分步思维 (Chain-of-Thought)对于复杂任务要求AI分步进行。示例“请按以下步骤解决这个问题首先分析用户需求其次列出可能的产品最后给出你的推荐并解释理由。”2自我验证要求AI对自己输出的内容进行审查和修正。示例“输出完成后请以批判性的视角检查一遍内容看是否有事实性错误或逻辑矛盾并列出可能的改进点。”3提供外部信息如果问题涉及特定文本直接粘贴进来。示例“请基于以下会议记录【粘贴记录内容】生成一份行动计划清单。”4迭代优化AI的输出不完美时不要重新提问而是在原对话基础上给出修改指令。示例“很好但第二个观点可以再深入一些并提供数据支撑。” 或者 “能不能让语气更正式一点”2、参数调整在使用提示词构建产品时除了把user prompt写好之外还可以通过调整模型输入项及参数去达到预期效果。可重点关注system_prompt: 系统提示词定义模型的行为和角色user_prompt: 用户提示词模型需要回答的问题temperature: 控制输出的随机性值越高越随机top_p: 控制采样范围值越小越聚焦3、场景实践探索3.1、文本纠错以将大模型应用在文本纠错场景为例让模型找到错别字但文章一长模型输出时就会随机发散这时候调整模型的temperature和top_p就会起到很好的效果。以下图为例模型1设置temperature 0.1 控制输出的随机性值越高越随机top_p 0.1 控制采样范围值越小越聚焦模型2设置默认值temperature 0.1 控制输出的随机性值越高越随机top_p 0.1 控制采样范围值越小越聚焦结果对比模型1 temperature 0.1 控制输出的随机性值越高越随机top_p 0.1 控制采样范围值越小越聚焦在执行纠错任务时更加聚焦更稳定且准确。案例一左侧为模型1右侧为模型23.2、文本总结和格式调整以此前定制的总结行业信息并进行格式调整为例为了尽量保证文章信息不失真以及收集到的多篇文章内容一起综合排版文字内容不能不能由大模型随意发挥在此前提下可以将大模型的TOP-P和temperature数值调低减少偏离原文的情况出现。这里可以扩展到很多场景如果输入的信息源足够可靠又依赖大模型去生成的情况下都应调低大模型生成的数值这样才会更加贴近原文减少因为模型随机性造成篡改的情况。案例一文本摘要生成应用案例二格式排版生成应用4、top_p和temperature是如何工作的大模型在执行生成任务时top_p 和 temperature 是最重要的两个参数他决定了大模型的“创造力”和“确定性”。大模型在生成每一个下一个词token时并不是只输出一个答案而是会计算一个概率分布即所有可能的词及其对应的出现概率。例如在句子 “The cat sat on the ___” 之后模型可能会给出如下概率mat: 0.35floor: 0.25couch: 0.15bed: 0.1tree: 0.05banana: 0.04… (成千上万个其他词)temperature 和 top_p 的作用就是在这个概率分布的基础上决定最终选择哪个词作为输出。4.1、Top-p (核采样)简单理解 他决定入围下一个词的范围池子有多大由 TOP-P 决定。p 代表概率累计和的一个阈值。工作原理模型会从概率最高的词开始将它们的概率依次累加。当累计概率刚刚超过设定的 top_p 阈值时就停止。然后从这些被选中的词中根据它们的概率权重随机选择一个输出。举例假设 top_p 0.8还是上面的例子mat (0.35) - 累计 0.35floor (0.25) - 累计 0.60 (仍然 0.8)couch (0.15) - 累计 0.75 (仍然 0.8)bed (0.1) - 累计 0.85 (已经 0.8停止)低 top_p (e.g., 0.1 - 0.5): 候选词池非常小只包含极少数最可能的词。输出非常集中和确定。高 top_p (e.g., 0.8 - 1.0): 候选词池很大当设为1.0时等同于考虑所有词。输出更多样化。适用场景当你希望排除那些明显不合理概率极低的选项同时又想在合理的范围内保留一定的随机性时top-p 是一个非常有效的方法。它比单纯的 temperature 更能智能地限制选择范围。4.2、Temperature (温度)简单理解它决定了模型在选择下一个词时是更倾向于选择高概率的“安全”词还是冒险选择低概率的“惊喜”词。工作原理低温度 (eg0.1 - 0.5): 会锐化原始的概率分布。高概率的词变得更高低概率的词变得更低。模型会变得非常保守和确定输出内容高度一致、可预测、 factual基于事实。适用场景 事实问答、代码生成、数据提取、技术文档撰写——任何需要高度准确性和一致性的任务。高温度 (eg0.8 - 1.5): 会平滑原始的概率分布。降低高概率词的优势提高低概率词的机会。模型会变得更有“创造力”和“随机性”。适用场景 创意写作、诗歌生成、故事构思、角色对话、头脑风暴——需要多样性和惊喜的任务。4.3、最终效果低 Top_p 低 Temperature 极度确定、保守、缺乏变化。高 Top_p 低 Temperature 最终效果稳定且略有变化的合理输出。低 Top_p 高 Temperature 这是一个非常矛盾且有冲突的设置通常应避免使用。高 Top_p 高 Temperature 最终效果天马行空、极具创意且极其不稳定。在使用Prompt构建产品时可以根据实际场景选择参数输入达到预期效果。二、RAG让模型“读懂你的业务”作用通过检索增强将私有知识注入模型解决大模型“训练数据缺乏、幻觉、垂直领域专业知识缺乏”等问题。适合问题必须“答得准、可追溯”。例子客服知识问答、内部政策问答、合规检索、研发知识库助手等。如果基座模型能支持的足够大的token数或领域沉淀的知识不多的情况下不需要用到RAG直接将上下文和用户Query一起送给大模型生成就行。当你的场景适合RAG也不要期待它能解决你所有的问题RAG只是在你与大模型对话时从海量领域数据里找到一些相关信息补充到上下文中仅此而已。不能解决的问题还很多比如异形数据结构化问题知识切片后上下文断层问题需多步推理才能解决的复杂问题等。这些都会影响内容生成质量。1、如何用好它RAG核心的功能就是针对用户Query在送给大模型的前置环节在知识库中检索最相关的信息作为补充上下文一起送给模型去做回答。在校验RAG系统效果时可以在两个维度上做要求召回率能够找到最相关的信息准确率不相关的信息不要RAG技术以及针对实际业务场景的设计主要就是锚定这两个维度指标的提升去的。但实践中期望两个指标都非常高不太现实因为RAG是一套非常复杂的系统每一个环节的问题都会影响最终的结果。很多时候只能取个相对合适相对平衡的值。如果你的业务采用了RAG这又需要回到产品经理要如何做选择去平衡成本、效率和体验的问题了。用好RAG还是要回归到流程中的每一个节点针对业务场景不断优化核心流程。以下是最重要的关键节点数据解析、文本切片、 文本向量化建立索引、Embedding、检索、Reranking、生成。1.1、文本解析与信息结构化原始数据的质量直接决定RAG问答效果的上限。非结构化数据需要转化为富含语义的结构化信息。这个节点非常重要以下是一些知识解析实践后的方法总结使用专业解析库能有效保留文本格式、表格和布局信息。对于扫描件或手写体等非标准文本需结合OCR技术或视觉大模型优化信息提取。表格数据的结构化处理格式转换将表格转为Markdown或HTML格式确保数据结构清晰。连续性保障避免切片导致的上下文断裂对空白单元格填充默认值拆分合并单元格以保持逻辑完整。语义强化将表头与主体内容映射为键值对KV提升模型理解能力。当前仍存在跨页表格合并困难、异形表格表头识别不准等问题很难做到通用一套方案解决所有问题需结合人工校验或针对特定规则补充。此前与腾讯云团队交流他们也是对特定一类格式的表格如金融行业中财报结合算法去优化。以下是一些在解析环节可尝试的进阶方案元数据提取与实体增强元数据提取通过模型自动捕获文档的创建时间、作者、章节等信息作为检索阶段的辅助依据。实体抽取关联利用NER技术识别关键实体如人名、地点并建立知识图谱关联丰富语义表示。这些是RAG系统高效运作的基础只有精准的结构化数据才能支撑后续的检索与生成质量。1.2、文本切片RAG上传的文本需切割为语义连贯的片段chunk平衡检索效率与上下文完整性。选择合适的方法切片是为了将chunk送给大模型生成时的信息时完整不包含噪声的没有最好的方法需根据自身业务场景和数据结构去判断用哪种切片方法。主流方法对比除了上述切片方法之外RAG还会面临表格数据多模态数据图、视频、音频等。如何将这类数据解析并采用合适的方式将信息切分成不同chunk也非常重要。1.3、向量索引构建文本向量化的质量与索引构建决定了检索效果的天花板其目的是将文本切片转换为数值向量嵌入并建立高效的数据结构索引以实现快速相似性搜索。在索引构建环节可以需与检索环节一起来看是采用语义检索还是混合检索。此外可以在建立索引时增强可以增加一些文本内容优化检索效果。语义增强就是将chunk和该chunk所在的文档内容这里是整片论文传给LLM让LLM结合整个文档对这段chunk作个概述然后把这个概述的信息append到chunk的内容中从而增强在后续进行语义检索时的精确性。1.4、检索在建立索引时就应该做好数据库及技术选型混合检索能兼顾语义和关键词精确匹配。如果当前场景的检索需要兼顾关键词和语义的时候可以考虑混合搜索需要结合文档内容、chunking和关键字词构建等环节相对于关键字词匹配检索混合搜索可以降低查询编写的规范性不一定要有特定的关键词出现以及提升查询的容错性可能会有拼写错误或者不恰当的描述相对于语义相似检索混合搜索可以增加一些领域专有信息的更精准匹配提升检索结果的准确性。检索查询问法优化在检索环节除了根据业务场景选取语义检索或混合检索之外还可以通过业务流程上的优化提高检索召回率和召回准确率。1、查询扩展为原始查询添加同义词近义词上位词如建立领域知识词库在查询时做替换提高检索查询准确率。2、问题改写让LLM将简短、模糊或不完整的查询重写为更全面、详细的形式。在多轮会话时这一步更重要需要根据上下文信息让模型改写生成新的完整准确的问题。### Query改写任务prompt **任务目标** 将用户输入的原始query改写为更完整、清晰的句子需完成以下操作 1. **指代消解**将代词如它、这个、那里替换为具体指代对象 2. **成分补全**补充缺失的主语/谓语/宾语等关键成分 3. **保持原意**确保改写后的句子与原句语义一致 4。**严格控制改写**如果用户输入的query中不含有代词也不缺失 关键成分禁止随意对成分进行补全 **输入格式** ​原句[用户输入的原始query] 上下文[对话历史或前文可选] **输出格式** ​改写句[完成指代消解和成分补全的句子] 拼接tag[need_context/no_context] ​**示例说明** - **示例1**需指代消解成分补全 原句它需要充电 上下文用户之前提到我的手机电量不足 改写句手机需要充电 拼接tagno_context - **示例2**成分缺失 原句正在下载 上下文用户之前说我在浏览器里 改写句浏览器正在下载文件 拼接tagneed_context - **示例3**无需修改 原句明天下午三点的会议取消了 上下文无 改写句明天下午三点的会议取消了 拼接tagno_context **输出规则** 1. **拼接tag判断** - 若改写需依赖上下文信息如补充主语标记为need_context - 若改写仅通过单句即可完成标记为no_context 2. 确保改写后的句子是**完整的独立句**无成分缺失或指代不明。3、子查询生成对于复杂、多方面的复合查询将其分解成多个独立的子查询分别检索后再合并结果。但实践下来开源大模型扩写子查询效果不太好有该场景诉求建议使用微调的小模型扩写的子查询任务会更聚焦。4、元数据过滤切片小节处有提到切片环节抽取元数据作为检索依据在检索前或检索后利用文档的元数据如创建日期、作者、类别、来源对结果进行过滤。它通过排除大量不相关文档很大程度提升了召回准确率去除了文档噪声。1.5、重排重排是将改写后的问题和每个召回的chunk单独汇总后Rerank模型重新计算一个分数再从高到低排序选出前KTOP-K的chunk再送给大模型生成。一般检索环节数量会大于等于rerank环节chunk数。这样能用较低的代价提升Top N结果的精度和召回质量。RAG简单说就是向量检索、重排、生成但如果想要做好这套系统需要关注流程每个非常多的细节根据自身业务特点从数据环节开始设计逐步提升每个环节的召回率和准确率这样才能让你的RAG系统不至于成为一个玩具。2、场景实践探索在落地RAG应用时会觉得这个过程像是个黑盒有一份适合业务场景的评测数据集非常重要在后续迭代验证时能够多次使用可以用心准备。RAG系统在数据解析、文本切片、 文本向量化建立索引、Embedding、检索、Reranking、生成环节中每个细节的调整都会影响系统的召回率和准确率最终影响模型生成答案的质量。当用户提问经过RAG系统最终送给大模型时的文本结构可能包括system promptchat history如有多轮召回重排后的chunkuser query还有送给大模型的参数当然如ChatDoc页面端也支持一些参数提供给用户配置。2.1、RAG应用到意图识别的尝试上文说到RAG是一套非常复杂的系统从数据解析、文本切片、 文本向量化建立索引、Embedding、检索、Reranking每个环节都值值得深入研究其实把RAG拆开来看如检索环节也可以将能力复用到其他场景中比如“意图识别”根据用户query匹配预先配置的问题库比对语义相似度去识别用户意图再执行后续流程下图是一个RAG系统结合意图识别的案例流程。三、Workflow与Agent1、Workflow与Agent的定义和区别“Agent”有多种定义方式。有人将其视为完全自主系统能在较长时间内独立运行使用各种工具完成复杂任务。也有人用来描述更固定的、预定义的工作流。Anthropic将这些变体归类为类Agent系统但在工作流和智能体间做了重要区分。总的来说Workflow 本质上是一套预定义的固定流程类似于工厂中的流水线。每个步骤都具有明确的输入与输出节点之间的逻辑严格按预定规则执行——一旦条件满足便自动进入下一阶段。Agent 的运行方式不是在预定轨道上推进而是在开放环境中主动探索“如何实现目标”。一个典型的 Agent 应具备以下三大核心能力感知环境理解输入内容与任务要求规划路径动态生成任务链而非依赖事先编写的固定流程执行行动调用工具完成子任务并可根据反馈实时调整策略。二者对比如下图概念描述还比较抽象有几张执行流程图就能理解区别了。2、一个简单的ReAct Agent流程核心就是“思考(Thought) - 行动(Action) - 观察(Observation)”的循环用伪代码表示一段React agent核心代码可以分为几段1、定义模型可自主调用的工具tools。2、system prompt中描述清楚任务规则和约束条件。publicclassReActAgent { privatestaticfinalStringAGENT_ACTION_TEMPLATE工具名称必须是[{0}]中的一个; privatestaticfinal ListTool TOOLS Arrays.asList( // 工具1查询补货计划单详情 Tool.builder() .name(查询补货计划单详情) .desc(根据补货计划单号查询补货计划单详情) .parameters(Collections.singletonList( Tool.Parameter.builder() .name(orderCode) .desc(补货计划单号) .type(string) .required(true) .build() )) .build(), // 工具2审批补货计划单 Tool.builder() .name(审批补货计划单) .desc(根据补货计划单号审批补货计划单) .parameters(Collections.singletonList( Tool.Parameter.builder() .name(orderCode) .desc(补货计划单号) .type(string) .required(true) .build() )) .build() );3、模型在上述定义的规则中循环知道任务执行完成。public static void main(String[] args) { if (args.length ! 1) { System.out.println(ak未配置结束!); return; } // LLM的AK注意不要泄露不要泄露不要泄露 String ak args[0]; // 创建 Scanner 对象用于接收用户输入 Scanner scanner new Scanner(System.in); // 多轮会话的记忆 Memory memory new Memory(); System.out.println(请提问开始和AI的对话吧); // 循环逻辑 while (true) { // 接收用户输入 String input scanner.nextLine(); System.out.println(用户输入 input); // 判断是否满足退出条件 if (exit.equalsIgnoreCase(input)) { System.out.println(检测到退出指令对话结束); break; // 满足条件时退出循环 } // reAct StringBuilder latestInput new StringBuilder(input); String output reAct(ak, memory, latestInput); System.out.println(AI输出: output); memory.add(new Memory.ChatMsg(Memory.ChatMsg.USER, input)); memory.add(new Memory.ChatMsg(Memory.ChatMsg.AI, output)); // 开始下一轮对话 } // 关闭 Scanner 、 scanner.close(); } private static String reAct(String ak, Memory memory, StringBuilder latestInput) { while (true) { String prompt prompt(USER_PROMPT, TOOLS, memory, latestInput); String llmResult LLM.llm(prompt, ak);从上述流程可以得出Agent模式是将业务运作规则、可调用的工具提供给大模型后模型根据用户的输入判断任务流程并开始执行任务直到模型根据规则判断任务已结束最后输出结果给到用户在这过程中是模型自主在基于已有的上下文信息业务流程定义可选工具用户问题自主执行任务知道问题结束。当模型面对一些开放性问题可能需要用到一个或多个工具来解决问题时有很大的优势。假定tools和模型能力都很完善的情况下比如用户提问国庆快到了想去北京玩。理想状态下Agent可能会自主去查日历根据你平时的行为习惯分析给你规划好路线MCP拉起高德地图、携程、美团等App完成一系列订票、订酒店、找餐厅、生成出行计划等一系列操作最终生成一份出行清单你照着执行即可。当然Agent也可能突然进入一个无用的循环中导致任务推进不下去这又需要定义业务规则去终止或转换流程让任务继续执行下去当然这属于Agent优化中事项了。3、Workflow的模式在大模型应用中Workflow工作流是指将复杂任务拆解为一系列可顺序或条件触发的标准化步骤通过预定义的节点和规则实现自动化执行。与具备自主决策能力的 Agent 模式不同Workflow 更强调流程的结构化、可控性和可重复性。工作流是一个预先定义好的流程根据输入项一个环节到下一个环节逐步执行到任务最终执行完输出结果。例如一个内容生成工作流可能依次包括主题分析 → 资料检索 → 大纲生成 → 分段撰写 → 校对输出。每个节点可以是工具调用、条件判断、RAG检索、数据处理或人工审核等。例如工具节点调用搜索引擎、数据库查询、图像生成模型等判断节点根据上下文决定流程分支如内容质量不合格则触发重写聚合节点合并多个节点的输出结果。由于流程固定每个步骤的输入、输出和状态均可追踪更符合企业级应用对稳定性、审计和合规性的要求。4、协同方式在大模型应用中Workflow 与 Agent 并非互斥而是协同互补的关系。二者的结合可充分发挥结构化流程的可靠性与智能决策的灵活性构建既稳定又自适应的系统。具体协同方式如下Workflow 作为流程骨架负责定义核心环节与执行顺序确保关键任务节点如数据提取、规则校验、结果聚合等可靠执行。Agent 作为决策中枢在流程的关键节点动态引入推理与判断能力例如选择分支路径、调用外部工具、处理异常情况等。例如在智能写作场景中Workflow 固定主干流程主题分析 → 大纲生成 → 内容撰写 → 质量校验在“内容撰写”节点引入 Agent假设给定Agent三个tools检索外部信息作为补充并清洗资料调整写作风格段落格式适应上下文质量核对校验。那么在内容撰写整个流程中会先按既定步骤分析主题生成大纲Agent撰写内容并完善丰富格式校验质量后输出终稿。当然最终是否采用此方案还是要回归场景出发平衡成本、效率和体验。四、模型微调从通用到专业的模型优化路径1、微调是什么微调是指在预训练大模型基础上利用特定领域数据进行进一步训练使其适应特定任务或领域需求。它能让模型能够针对不同领域如医疗、金融更精准的执行任务它能弥补预训练模型在特定任务上的不足显著提升模型在目标领域的表现。与RAG的区别在于RAG属于外挂信息提供到上下文中让模型生成回复。微调是通过语料训练调整模型参数让模型在后续计算输出内容时不断贴合训练的数据。2、微调方法的分类2.1、按参数调整规模分类全量微调Full Fine-tuning特点更新全部预训练参数优势理论性能最优可深度适配任务局限需高算力A100/H100级GPU、大存储数十GB模型副本存在知识遗忘风险适用科研机构/企业级应用追求极致效果参数高效微调PEFT特点冻结主干参数仅训练新增模块优势显存需求降低90%存储仅需MB级支持多任务快速切换代表技术• LoRA在关键层注入低秩矩阵• Adapter插入轻量FFN模块• Prompt Tuning训练输入前缀向量• Prefix Tuning逐层添加任务前缀2.2、按训练范式分类有监督微调SFT数据要求高质量指令-回答对目标建立基础对话能力核心作用预训练模型向实用对话模型的关键转化强化学习微调RLHF流程SFT→训练奖励模型→PPO优化目标优化回答的有用性、安全性特点多阶段训练依赖人类偏好数据自反馈微调DPO直接优化偏好数据无需独立奖励模型RRF多答案生成模型自选优解2.3、按数据形式分类全监督标注完整数据集SFT典型少样本基于极少量样本快速适配在线/离线离线固定数据集训练在线实时用户反馈迭代2.4、方法对比微调的方法有非常多总结来看参数效率与计算需求通常呈反比关系参数越高效的方法计算需求越低。性能潜力与训练成本正相关全量微调和RLHF性能最好但成本最高。LoRA在多个维度上取得了很好的平衡使其成为当前最受欢迎的微调方法。主流微调方式对比2.5、选择建议资源受限场景优先LoRA等PEFT方法训练GPU成本节省90%对话质量要求高SFTRLHF/DPO组合方案数据充足且算力充沛可尝试全量微调注意过拟合监控快速任务迁移采用Prompt Tuning或少样本微调3、微调关键流程3.1、数据准备收集与目标任务相关的训练数据注重数据质量与标注准确性并进行必要的清洗与预处理。3.2、选择基础模型依据任务特点与数据特征选择合适的预训练模型作为微调基础。3.3、确定微调策略根据任务需求与资源条件选择全微调或部分微调如仅调整顶层参数明确微调层级与范围。3.4、配置超参数设置关键训练超参数包括学习率、批量大小、训练轮数等这些直接影响模型收敛速度与性能。3.5、初始化模型参数基于预训练权重初始化模型。全微调通常复用全部原有参数部分微调则可能随机初始化特定层。3.6、执行训练使用选定策略与数据对模型进行微调通过优化算法迭代更新参数以最小化损失函数。3.7、效果评估效果评测可以通过模型能力、体验、安全三个维度进行评估能力维度使用定量指标如准确率在测试集上衡量核心任务性能并通过领域知识题库检验专业性和事实准确性同时利用通用基准测试以避免灾难性遗忘。体验维度通过人工盲测让评估者基于有用性、流畅性等主观偏好选择最佳输出并通过多轮对话测试来验证模型上下文理解和交互的自然度。安全维度通过红队测试主动攻击模型以检验其生成有害内容的风险并使用偏见基准数据集量化分析输出中的公平性问题确保其符合伦理与合规要求。模型微调的整个过程应是一个迭代循环根据评估结果反复调整数据、超参数甚至微调策略直至模型达到所有预期目标。五、写在最后综上所述大模型应用的技术选型本质上是一场围绕用户场景的精准匹配与实践权衡。从轻量敏捷的 Prompt 工程到可靠溯源的 RAG再到流程严谨的 Workflow 与自主决策的 Agent最终至深度定制化的模型微调——每一项技术都有其明确的适用边界与价值定位。AI应用落地从不依赖于追求“最先进”的技术而在于选择“最合适”的方案。产品经理应始终以用户真实需求为锚点在成本、效率与体验之间寻求最优解遵循“如无必要勿增实体”的奥卡姆剃刀原则用简洁可靠的架构解决复杂问题。随着模型能力与工程方法的不断演进未来会有更多技术路径的融合与创新。但核心始终是理解场景、定义问题、选择工具、创造价值。最后近期科技圈传来重磅消息行业巨头英特尔宣布大规模裁员2万人传统技术岗位持续萎缩的同时另一番景象却在AI领域上演——AI相关技术岗正开启“疯狂扩招”模式据行业招聘数据显示具备3-5年大模型相关经验的开发者在大厂就能拿到50K×20薪的高薪待遇薪资差距肉眼可见业内资深HR预判不出1年“具备AI项目实战经验”将正式成为技术岗投递的硬性门槛。在行业迭代加速的当下“温水煮青蛙”式的等待只会让自己逐渐被淘汰与其被动应对不如主动出击抢先掌握AI大模型核心原理落地应用技术项目实操经验借行业风口实现职业翻盘深知技术人入门大模型时容易走弯路我特意整理了一套全网最全最细的大模型零基础学习礼包涵盖入门思维导图、经典书籍手册、从入门到进阶的实战视频、可直接运行的项目源码等核心内容。这份资料无需付费免费分享给所有想入局AI大模型的朋友扫码免费领取全部内容部分资料展示1、 AI大模型学习路线图2、 全套AI大模型应用开发视频教程从入门到进阶这里都有跟着老师学习事半功倍。3、 大模型学习书籍文档4、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5、大模型大厂面试真题整理了百度、阿里、字节等企业近三年的AI大模型岗位面试题涵盖基础理论、技术实操、项目经验等维度每道题都配有详细解析和答题思路帮你针对性提升面试竞争力。6、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。扫码免费领取全部内容这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相关文章:

大模型应用落地:新手/程序员必备五类关键技术选型指南(收藏版)

大模型应用落地:新手/程序员必备五类关键技术选型指南(收藏版) 本文从产品经理视角出发,详细介绍了大模型应用落地的五类关键技术(Prompt、RAG、Workflow、Agent、模型微调)及其适用场景。强调技术选型应遵…...

Nano Banana Pro图像生成与编辑技术解析

介绍 Nano Banana Pro 不久前,发布了Nano Banana(Gemini 2.5 Flash图像模型)。从修复旧照片到生成微型模型,Nano Banana在图像编辑领域迈出了一大步,让普通创作者能够表达自己的创造力。今天,推出Nano Bana…...

DeepSeek 架构深度解析:从原理到实践的完整指南

引言:重新定义大模型效率的国产之光2024年12月,DeepSeek-V3的技术报告正式发布,迅速在AI社区引发轰动。这款拥有671B总参数的混合专家模型,以仅557万美元的训练成本——不到GPT-4传闻训练成本的1/10——实现了与GPT-4o和Claude-3.…...

Locust模拟真实用户并发及优化建议

第一部分:为什么要压测?因为生产环境不会跟你商量 你可以把API想象成一家餐厅的后厨。本地跑通,就像你一个人在后厨炒菜,流水线得很顺。但突然来了一百个客人同时点餐,后厨就乱套了——锅不够、灶不够、配菜来不及切。…...

收藏!小白/程序员轻松入门大模型,抓住AI风口高薪就业机会!

收藏!小白/程序员轻松入门大模型,抓住AI风口高薪就业机会! 本文详细介绍了AI大模型领域的热门就业岗位,包括AI模型研发工程师、数据科学家、算法工程师、AI应用开发工程师、AI平台架构师、AI产品经理和AI测试工程师等。文章强调了…...

2026年木蜡油定做厂家大盘点,究竟哪家才是行业首选?

在当今注重环保和品质的时代,木蜡油作为一种天然环保的涂料,受到了越来越多消费者的青睐。无论是室内外木器家具、木艺制品,还是全屋定制、装饰装修等领域,木蜡油都有着广泛的应用。然而,市场上木蜡油定做厂家众多&…...

Zenith.NET v0.0.7:Metal 后端落地,.NET GPU 抽象的跨平台旅程

为什么要做 Zenith.NET?.NET 生态有不少图形相关的库——绑定层如 Silk.NET、Vortice,抽象层如 Veldrid、Evergine。但现有的抽象层要么停留在较旧的 API 版本(如 DX11/OpenGL),要么是商业引擎的一部分,难以…...

路径构建引擎:开源角色养成系统的架构解析与实践指南

路径构建引擎:开源角色养成系统的架构解析与实践指南 【免费下载链接】PathOfBuilding Offline build planner for Path of Exile. 项目地址: https://gitcode.com/GitHub_Trending/pa/PathOfBuilding 一、价值定位:构建虚拟角色的数字孪生平台 …...

Wand-Enhancer完整指南:如何安全增强WeMod用户体验的终极方案

Wand-Enhancer完整指南:如何安全增强WeMod用户体验的终极方案 【免费下载链接】Wand-Enhancer Advanced UX and interoperability extension for Wand (WeMod) app 项目地址: https://gitcode.com/gh_mirrors/we/Wand-Enhancer Wand-Enhancer是一款专为WeMod…...

高效批量获取抖音无水印视频:从概念到实战的完整指南

高效批量获取抖音无水印视频:从概念到实战的完整指南 【免费下载链接】douyin-downloader A practical Douyin downloader for both single-item and profile batch downloads, with progress display, retries, SQLite deduplication, and browser fallback suppor…...

开源广告拦截工具AdGuard浏览器扩展:全平台部署与效率优化指南

开源广告拦截工具AdGuard浏览器扩展:全平台部署与效率优化指南 【免费下载链接】AdguardBrowserExtension AdGuard browser extension 项目地址: https://gitcode.com/gh_mirrors/ad/AdguardBrowserExtension 【价值解析】AdGuard扩展如何重塑你的网络浏览体…...

2026年一体化HR系统TOP8盘点:从集团管控到AI落地的选型指南

进入2026年,企业选一体化HR系统不再只看模块是否齐全,更看能否支撑集团管控、复杂用工、数据洞察与AI提效闭环。红海云在国央企与复杂场景的深度适配、以及AI在招聘与员工服务等环节的可落地性上更突出;用友、北森、金蝶在业人融合、PaaS扩展…...

Dress Code高分辨率虚拟试衣数据集:计算机视觉时尚研究的终极实战指南

Dress Code高分辨率虚拟试衣数据集:计算机视觉时尚研究的终极实战指南 【免费下载链接】dress-code 项目地址: https://gitcode.com/gh_mirrors/dre/dress-code Dress Code是由意大利摩德纳大学研究团队开发的高分辨率多类别虚拟试衣数据集,为计…...

BiliTools AI视频总结功能:革新B站内容消费体验的智能解决方案

BiliTools AI视频总结功能:革新B站内容消费体验的智能解决方案 【免费下载链接】BiliTools A cross-platform bilibili toolbox. 跨平台哔哩哔哩工具箱,支持下载视频、番剧等等各类资源 项目地址: https://gitcode.com/GitHub_Trending/bilit/BiliTool…...

幻兽帕鲁跨平台存档修复与数据迁移完全指南:解决GUID冲突的5步实战方案

幻兽帕鲁跨平台存档修复与数据迁移完全指南:解决GUID冲突的5步实战方案 【免费下载链接】palworld-host-save-fix Fixes the bug which forces a player to create a new character when they already have a save. Useful for migrating maps from co-op to dedica…...

Vue大屏自适应实战指南:v-scale-screen深度解析与完整方案

Vue大屏自适应实战指南:v-scale-screen深度解析与完整方案 【免费下载链接】v-scale-screen Vue large screen adaptive component vue大屏自适应组件 项目地址: https://gitcode.com/gh_mirrors/vs/v-scale-screen 在当今数据驱动的时代,大屏数据…...

应收账款管理:从“被动应对”到“主动管理”的思维转变

“应收账款管理真的太难了!”这是许多企业管理者的心声。中小型企业尤其容易陷入资金回笼慢、坏账风险高的困境,甚至因此影响现金流健康,拖累企业发展。传统管理模式中,信息孤岛、流程繁琐和决策滞后等问题屡见不鲜,让…...

3步掌握Dify工作流:从零到精通的完整指南

3步掌握Dify工作流:从零到精通的完整指南 【免费下载链接】Awesome-Dify-Workflow 分享一些好用的 Dify DSL 工作流程,自用、学习两相宜。 Sharing some Dify workflows. 项目地址: https://gitcode.com/GitHub_Trending/aw/Awesome-Dify-Workflow …...

2026届最火的降重复率网站横评

Ai论文网站排名(开题报告、文献综述、降aigc率、降重综合对比) TOP1. 千笔AI TOP2. aipasspaper TOP3. 清北论文 TOP4. 豆包 TOP5. kimi TOP6. deepseek 想要有效降低文本 AI 率,针对知网 AI 检测系统独特的识别逻辑,得从语…...

3个实用技巧让Notepad--始终保持高效运行

3个实用技巧让Notepad--始终保持高效运行 【免费下载链接】notepad-- 一个支持windows/linux/mac的文本编辑器,目标是做中国人自己的编辑器,来自中国。 项目地址: https://gitcode.com/GitHub_Trending/no/notepad-- 如何判断你的编辑器需要性能优…...

2025届最火的十大降重复率助手解析与推荐

Ai论文网站排名(开题报告、文献综述、降aigc率、降重综合对比) TOP1. 千笔AI TOP2. aipasspaper TOP3. 清北论文 TOP4. 豆包 TOP5. kimi TOP6. deepseek 知网在近期对AIGC检测功能进行了升级,能够精准地识别出通过人工智能生成的文本内…...

绝版图书购书方案问题(折半枚举 / Meet-in-the-Middle)

绝版图书购书方案问题(折半枚举 / Meet-in-the-Middle) 📚 绝版图书购书方案问题(折半枚举 / Meet-in-the-Middle) 一、题目描述 输入 输出 样例输入 样例输出 提示 二、题目解读 2.1 什么是"购书方案"? 2.2 样例解释 三、算法选择分析 3.1 为什么不能直接用…...

ERPC 多区域 Solana RPC 基础设施架构:Bundle Standard方案动态扩展与全球端点部署实践

概述 ERPC 近期对其 Bundle Standard 方案进行了扩展升级,支持按持有凭证数量动态分配多个独立方案实例。这一机制使开发者能够将 Solana RPC、Geyser gRPC 和 Shredstream 端点灵活部署到全球多个区域,同时满足开发环境与生产环境分离的需求。 本文将…...

3步解决Windows图片查看难题:ImageGlass开源图像浏览器深度体验指南

3步解决Windows图片查看难题:ImageGlass开源图像浏览器深度体验指南 【免费下载链接】ImageGlass 🏞 A lightweight, versatile image viewer 项目地址: https://gitcode.com/gh_mirrors/im/ImageGlass 还在为Windows自带图片查看器功能单一而烦恼…...

Windows输入自定义的现代化实践:QKeyMapper实现免重启的键盘映射与虚拟手柄方案

Windows输入自定义的现代化实践:QKeyMapper实现免重启的键盘映射与虚拟手柄方案 【免费下载链接】QKeyMapper [按键映射工具] QKeyMapper,Qt开发Win10&Win11可用,不修改注册表、不需重新启动系统,可立即生效和停止。支持游戏手…...

【GUI-Agent】阶跃星辰 GUI-MCP 解读---()---执行层

基础示例:单工作表 Excel 转 TXT 以下是将一个 Excel 文件中的第一个工作表转换为 TXT 的完整步骤: 1. 加载并读取Excel文件 from spire.xls import * from spire.xls.common import * workbook Workbook() workbook.LoadFromFile("示例.xlsx"…...

新手必看:在快马平台体验openclaw切换模型的入门实践

今天想和大家分享一个特别适合AI开发新手的实践项目——在InsCode(快马)平台体验openclaw切换模型的操作。作为一个刚接触AI开发不久的人,我发现这个平台真的能让人快速理解模型切换的核心概念,下面就把我的实践过程记录下来。 项目背景理解 刚开始接触A…...

Qwen3-TTS-Tokenizer-12Hz快速上手:支持多种音频格式一键处理

Qwen3-TTS-Tokenizer-12Hz快速上手:支持多种音频格式一键处理 1. 认识Qwen3-TTS-Tokenizer-12Hz 1.1 音频编解码器是什么 想象你有一个装满水的桶,想要把它运到远处。直接搬运很费力,但如果把水倒进密封袋里,运输就轻松多了。音…...

从 Vectorless 到 SAIF 再到板级实测:HLS Kernel 功耗估计全流程实战

从 Vectorless 到 SAIF 再到板级实测:HLS Kernel 功耗估计全流程实战 很多人在做 FPGA 或 SoC 上的 HLS kernel 时,第一次接触功耗分析,往往是从 Vivado 里的 report_power 开始的。点一下按钮,工具很快就会给出一个总功耗数字&am…...

注释标准模板

观看main函数能够看出框架,框架要简单,比如训练不给它细分,数据流向关注转为哪个数据,而不是关注维度,维度在调试的时候才关注 1、>表示数据流向 2、# #包围的表示框架 3、# 表示普通的框架内的注释 4、# -----补充…...