当前位置: 首页 > article >正文

面试官直播拷打我:“是否了解Harness Engineering?”,我笑了:“LLM很强,但如果不能拴住、监测、约束,都白搭”。面试官一直在点头。

Harness Engineering 是什么从哪冒出来的面试官一般这么问你听说过 Harness Engineering 吗“或者Agent Model Harness你怎么理解这个等式”先搞清楚Harness 是什么Harness 这个词直译叫马具或者缰绳。想象一下骑马马本身有强大的力量能跑能跳能驮东西。但如果没有缰绳和马具这股力量就是失控的——马可能往悬崖上跑可能甩你下来可能跑去吃草不回来了。马具的作用就是让这股力量为你所用。AI 系统也一样。LLM 很强Agent 很能干但如果没有一套东西把它们拴住、监测住、约束住它们就是脱缰的野马——可能跑偏、可能幻觉、可能越权、可能悄悄变差。Harness Engineering 就是给 AI 系统装上缰绳的工程学科。这个词是谁先喊出来的很多人跟风聊 Harness Engineering但压根不知道它最早是谁提的。搞清楚来源你就明白为什么它这次真的能火而不是又一个换皮概念。2026 年 2 月 5 号Mitchell HashimotoHashiCorp 联合创始人Vagrant、Terraform 的作者发了一篇博客叫《My AI Adoption Journey》。他把接纳 AI 的过程拆成 6 步第 5 步的名字就叫**“Engineer the Harness”**。他的定义特别简洁每次当你发现 Agent 犯了一个错误就花点时间去工程化一个解决方案让它永远不会再犯同样的错误。你品品这个思路。绝大多数人遇到 Agent 犯错骂两句手动改掉祈祷下次别再犯。但 Mitchell 不是这么干的——他每次 Agent 犯错都会停下来问自己我能不能把这个错误永久性地修到环境里让它下次在结构上就不可能再犯可能是给 AGENTS.md 加一条规则可能是加一个 linter可能是补一个自动化测试也可能是搞一个 Git Hook。关键是这个修补必须沉淀到环境里而不是留在人脑子里。这套做法是复利的。每次 Agent 犯错环境就变强一点环境变强一点Agent 下次就更少犯错犯错变少你改进的速度就更快。时间一长你的 Harness 越来越坚固Agent 在你这个项目里越跑越稳。博客发出来一周后OpenAI 紧接着发了一篇官方博客标题就叫《Harness engineering: leveraging Codex in an agent-first world》。讲的是他们内部一个小团队从一个空仓库出发用 5 个月时间靠 Agent 写出了 100 万行代码、合并了 1500 个 PR全程没人手动写过一行代码。这个词的路径很清晰基础设施圈的老法师先喊出来 → OpenAI 几天后发文背书 → 一周内整个 AI 圈刷屏。这种出身决定了它不会像很多 AI 新词一样炒一波就凉它更像是在真实工程土壤里长出来的东西。一个核心等式圈子里流传着一个特别简洁的等式Agent Model Harness翻译成人话在一个 AI Agent 系统里除了模型本身之外几乎所有决定它能不能稳定交付的东西都属于 Harness。你也可以反过来推Harness Agent − Model这个公式把 Harness 的边界划得清清楚楚。Agent Model Harness面试核心点别把 Harness Engineering 理解成某个具体工具或产品。面试官问的是方法论——你怎么设计一整套运行环境让模型持续做对。Mitchell Hashimoto 的定义和 OpenAI 的实践面试时要能说出来这是概念来源。从 Prompt 到 Context 到 HarnessAI 工程的三次重心转移面试官会问“Harness Engineering 和 Prompt Engineering、Context Engineering 到底什么区别”要真正讲清楚 Harness 在解决什么问题不能一上来就讲它。因为它不是凭空冒出来的是 AI 工程这几年一步一步被逼出来的。Agent 本身的演进在聊工程重心怎么转移之前先看一眼 Agent 本身经历了什么变化——因为正是 Agent 的形态变了才逼着工程方法跟着变。Agent演进从聊天机器人到自进化Agent最早是聊天机器人——你问我答单轮对话模型说啥就是啥不需要任何工程化手段。后来接上检索和工具——模型能查文档、调 API 了但问题也来了查出来的信息怎么喂给它工具返回的结果它能不能正确理解这时候光靠提示词就不够了你需要管上下文。再后来是自主 Agent——模型自己规划任务、自己拆步骤、自己执行、自己检查。一跑就是几十步中间任何一步出问题后面全跟着错。这时候光管上下文也不够了你需要一整套机制保证它跑得稳。最前沿的是自进化 Agent——不只是跑得稳还能从错误中学习、生成新技能、下次直接复用。这就把 Harness 和学习闭环绑在了一起。Agent 从问答→干活→长期干活→越干越强每一步升级都暴露了前一代工程方法的短板逼着新的工程方法诞生。第一阶段Prompt Engineering——让模型听懂大模型本质上是一个对上下文极度敏感的概率生成器。你给它什么样的输入它就沿着那个方向生成。你给它一个角色身份它就用那个角色的思路回答你给几个示例它就沿那个范式补全你强调什么约束它就把那个约束当重点。所以同一件事换个说法效果能差十倍。加个排序可能给你一段没头没尾的代码片段但这是完整代码帮我加按年龄从大到小的排序保留所有逻辑输出完整代码就能给你靠谱的结果。Prompt Engineering 解决的核心问题就一个模型不是不会而是你没把话说明白。它在单轮对话场景里很好用。但很快大家想做的事情变复杂了提示词工程就撑不住了——你让大模型分析公司财报它没看过你的财报分析啥你让它按公司代码规范写功能它没看过你的规范怎么知道该怎么写提示词擅长把任务表达清楚但不擅长凭空补出模型不知道的知识。它解决的是表达的问题不是信息的问题。第二阶段Context Engineering——让模型知道为什么 Context Engineering 会火因为大家做的产品形态变了。之前是聊天机器人问一句答一句。后来 Agent 火了模型要进真实环境去干活——多轮对话、调用工具、写代码、查数据库要在多个步骤之间传递中间结果。一个完整的任务模型至少需要拿到当前的需求文档、历史评审记录、公司相关规范、当前任务的具体目标、之前分析的中间结论。这些东西全部加起来才叫一个完整的上下文。Context Engineering 的核心思想就一句话模型未必知道所以系统必须在合适的时机把正确的信息送进去。但上下文窗口是有限的。更要命的是上下文塞得太满模型会出现**“上下文腐化”**Context Rot——记不住前面内容前后矛盾忽略最初定下的规则。像被信息淹没的人你给他太多东西要看反而抓不住重点。所以 Context Engineering 要做三件事召回找最相关的信息、压缩摘要提炼省空间、组装按顺序排好重要的放后面。Anthropic 的 Agent Skills 就是这个思路——一开始只给模型看目录等它真的需要某个工具时再动态加载详细说明。上下文优化的本质不是给得更多而是**“按需给、分层给、在正确的时机给”**。但到这儿还没完。第三阶段Harness Engineering——让模型做对你把提示词写得再漂亮把上下文管得再完美模型在单步上的表现确实越来越好。但只要任务的链路一长还是会出问题计划做得很好执行时突然跑偏调用工具调对了但理解错了返回结果在长任务链里悄悄偏离初衷系统完全没察觉跑着跑着忘了自己最初要干啥提示词优化的是意图表达上下文优化的是信息供给但这两个都还停留在输入侧。当模型真正开始连续行动时会出现一个全新的问题谁来监督它谁来约束它谁来在它跑偏时把它拉回来这就是 Harness Engineering 要解决的问题。前两代工程关注的是怎么让模型更会想Harness 关注的是**“怎么让模型不跑偏、跑得稳、出了错还能爬起来”**。Harness 拆开看六层核心组件面试官会问“如果让你设计一个 Harness你里面会装什么”去看 OpenAI、Anthropic、LangChain 这些做 Agent 的顶级团队产品形态不同、技术栈不同但把 Harness 掀开看内部结构组件惊人地相似。因为让 Agent 在真实世界稳定工作这个命题天然推着所有人往同一方向收敛。一个成熟的 Harness 大致可以拆成六层按它在干啥分成三组Harness六层核心组件输入侧让模型看到正确的东西上下文精细化管理 记忆与状态管理动作侧让模型做出正确的事工具系统 任务执行编排校验侧让模型知道做没做对 出错能爬起来评估观测 约束恢复三组对应一个工程师在真实环境里干活的三个必要条件看得准 → 做得对 → 错了能兜底。层解决的核心问题上下文精细化模型这一轮该看到什么工具系统模型用什么动手执行编排模型下一步该干啥记忆与状态模型跨轮该记住什么评估与观测模型做得好不好有没有尺子约束与恢复模型出错了能不能爬起来我们一层一层看。第一层上下文精细化这一层管的是空间——这一轮发给模型的那一坨上下文长啥样、装了些啥、怎么排布。它容易和第四层记忆与状态搞混区别是第一层管这一轮看到什么第四层管上一轮的事怎么流到下一轮。核心做三件事① 把角色和目标钉死。大部分 Agent 跑偏根源是身份没说清楚。模型得知道自己是谁、当前任务是啥、成功标准是什么。② 动态筛选不是一次塞满。Anthropic 把这个叫just-in-time retrieval——让 Agent 边干活边按需抓信息而不是一上来把所有可能有用的东西一股脑塞进去。塞得越多注意力越散。③ 结构化组织。固定规则放一处动态证据放一处中间结论放一处三者分开。否则模型会自我污染——用前面错的中间结论去影响后面判断。第二层工具系统没有工具的大模型就是个文本预测器。接上工具之后Agent 才真正活过来。但工具不是接得越多越好。OpenAI 做Codex早期踩过这个坑一开始给 Agent 接了一堆工具想着选择多总是好的结果 Agent 频繁用错工具、用错时机。后来砍掉一大半效果反而上去了。这一层要回答三个问题给它哪些工具只给真正需要的、什么时候用哪个该查的时候查不该查的时候别瞎查、工具结果怎么喂回模型30条搜索结果别原样塞回去先提炼再喂。MCPModel Context Protocol本质上就是在做工具层的标准化让任何工具都能用同一种方式接到任何 Agent 上。第三层执行编排Agent 的本质说白了就是一个for 循环思考一步 → 行动一步 → 观察结果 → 再思考下一步。经典名字叫 ReActReasoning Acting。但魔鬼藏在这个循环里。Agent 经常翻车的场景是每一步它都会做但把所有步骤串起来之后就不会了。它知道拉数据、知道写摘要但不知道应该先拉全量再逐个分析最后交付给你的经常是一堆半成品。这一层的职责就是给模型一条明确的工作轨道让它知道我现在在哪一步下一步该干啥。第四层记忆与状态没有状态管理的 Agent每一轮调用之间都是失忆的。今天跑了一遍明天再跑完全不记得这个任务昨天已经处理过了于是又处理一遍。Anthropic 给出了一个关键做法Agent 的状态不应该放在上下文窗口里而应该外化到文件系统。让 Agent 维护一份进度日志、一份启动脚本、一个完整的 git history作为长期记忆介质。下一轮换一个全新的上下文窗口接手时从这些文件里一读立刻就知道现在到哪一步了。记忆必须分层存任务状态写到 progress 文件里任务完就归档、会话中间结果当轮用完就丢、长期记忆写在常驻配置里每次调用都注入。三类记忆生命周期完全不同混在一起就乱了。Claude Code 里的 CLAUDE.md、Cursor 里的 .cursorrules就是长期记忆这一类的典型实现。第五层评估与观测这一层最容易被跳过但跳过之后就进退两难。太多团队做出 Agent 高高兴兴上线跑了两周才发现实际成功率只有 50%——不是它不出结果而是它每次都出结果但一半时候是错的。这两周里没人发现因为根本没有机制能告诉团队它这次到底做得对不对。两件事Eval 集——手写一批典型任务每个标注正确答案长啥样每次改完 Agent 就跑一遍对比成功率。没有 Eval 集你对 Agent 好不好的判断永远停留在我感觉这次变好了的玄学阶段。Trace——看到 Agent 每一步的真实足迹做了什么决策、调了哪个工具、拿到什么返回、花了多少 token。LangSmith、Langfuse 这类 trace 系统就是干这个的。能看到 trace调试就从猜变成了看。第六层约束与恢复在真实环境里失败不是例外是常态。这一层做三件事约束——定义什么事 Agent 不能做。这些约束最好硬编码到代码或 linter 规则里而不是写在提示词里靠 Agent 自己遵守。校验——在每一步输出前后做自动检查。格式对不对频道名在不在白名单里校验不是审美品味是硬规则。恢复——失败之后有预案。API 限流就等一会重试发送失败就先落本地队列token 快耗光就立即停下保存进度。每种典型失败都应该有明确恢复路径。Mitchell 的复利效应落到哪一层还记得 Mitchell Hashimoto 说的每次 Agent 犯错把修复沉到环境里吗那个修复到底沉到哪Agent 总是漏掉某个上下文信息 → 改第一层它总是用错工具 → 改第二层步骤乱 → 改第三层跨天记不住进度 → 改第四层没法判断做得好不好 → 搭第五层一失败就崩溃 → 强化第六层这六层不是必须一次搭完的任务清单是一张路标——告诉你下次 Agent 犯错时修复该落到哪里。随着时间推移每一层被你一点一点填充、加固Harness 就是这样一寸一寸长大的。大厂踩过的五个真实难题面试官会问“你们做 Agent 踩过什么坑怎么解决的”概念清晰是一回事落地是另一回事。Harness 真正的难度根本不在蓝图而在这些具体的坑里。难题一Agent 跑久了为什么会越走越偏这是几乎所有做长链路 Agent 的团队都会遇到的问题。一开始 Agent 表现挺好但跑着跑着开始忘——忘了最初的目标忘了之前的决定开始重复劳动偏离主线。Cognition做 Devin 的公司在用 Claude Sonnet 4.5 重做 Devin 时观察到一个有趣现象他们叫**“上下文焦虑”Context Anxiety**——模型自己好像也能感觉到我快撑不住了不仅丢细节还会着急收尾突然简化方案、跳过验证、急匆匆宣布任务完成。更神奇的是模型对自己还剩多少上下文的估计非常不准经常以为自己快没空间了其实还剩一大半。很多人的第一反应是做上下文压缩——把历史压成摘要腾空间。这个思路对不对对但不够。Anthropic 挑明了一个更扎心的观察光压缩不够那种已经累了的负担感模型还是带着。真正解开这个结的关键动作叫Context Reset——直接把旧的上下文窗口整个丢掉换一个干净的接手。状态全部外化到文件系统新窗口从文件里读进度立刻知道现在到哪一步。这特别像工程里遇到内存泄漏时的做法——不拼命优化内存直接重启进程从磁盘恢复状态。原则重启胜过修补状态沉到文件里。难题二让 Agent 自己给自己打分为什么总偏乐观很多人做 Agent 时让模型干完活再自评做得怎么样。听起来合理但 Agent 永远觉得自己干得不错尤其在没标准答案的任务上自评偏差特别明显。Anthropic 后来想明白了一件事让干活的和验收的必须是不同的人。他们搞出了一个三角分工Planner规划者负责拆需求、Generator生成者负责实现、Evaluator验收者负责真实测试。Evaluator 不是简单看一眼代码必须真的操作页面、看交互、检查运行结果。三个角色足够独立才能形成有效闭环规划 → 生成 → 验收 → 修复 → 再验收。原则生产和验收必须分离验收方必须能摸到真实世界。难题三Agent 反复失败工程师到底该干啥当 Agent 反复失败时绝大多数人的本能反应只有两个再调调提示词或者换个更强的模型。但 OpenAI 在做 Codex 项目时发现这两招其实都是错的方向。他们干了一件很离谱的事在百万行代码项目里人类工程师几乎不写代码全部由 Agent 来写。那人在干啥三件事把产品目标拆成 Agent 能力边界内的小任务当 Agent 反复失败时看环境里缺了什么能力然后补进去建立反馈链路让 Agent 看到自己的工作结果。以前遇到 Agent 写代码有 bug加一句提示词请仔细检查代码不要有 bug祈祷模型听话。Codex 团队的做法是给 Agent 接上 lint、单测、运行环境让它自己写完自己跑看见 bug 自己改。同样的问题前者在求模型发挥后者在改造环境。原则Agent 反复失败时别问模型能不能更努力要问环境还缺什么。难题四规范文件越写越长Agent 为什么反而更糊涂OpenAI 自己踩过的坑。早期做 Codex 时搞了一个巨大的 AGENTS.md把所有规范、约定、最佳实践全塞进去。想法是规则写得越全Agent 越不会出错。结果呢Agent 更糊涂了——上下文窗口是稀缺资源文件越来越长模型注意力被严重稀释。OpenAI 后来怎么改的把 AGENTS.md 从百科全书改成目录页——主文件只保留约 100 行核心索引详细内容拆到子文档里。Agent 平时只看目录真的需要某部分时才钻进去。这就是渐进式披露Progressive Disclosure——上下文优化的本质不是给得越多越好而是该给的时候给不该给的时候藏起来。如果你现在在写 CLAUDE.md 或 Cursor Rules强烈建议回头看看自己有没有百科全书化。如果有赶紧拆。原则规则文件宁缺毋滥给模型看的东西少即是多。难题五Agent 写的代码越堆越烂技术债怎么还这个特别接地气。Agent 负责写绝大多数代码后会疯狂模仿仓库里已有的模式——好的被复制坏的也被复制。一旦早期某段代码写歪了Agent 把那个歪写法当惯例越堆越歪。OpenAI 给它起了个扎心的名字AI slopAI 代码泔水。OpenAI 一开始的办法是靠人工清理——每周拿出周五一整天让工程师手工打扫。结果失败了Agent 产出代码的速度太快人类清理的速度跟不上周五清一天周一又堆满了。最后的解法非常 Harness把工程师的经验写成黄金原则Golden Principles沉进仓库然后让一批后台 Agent 按固定节奏自动扫描仓库找出偏离的地方自动开修复 PR。大部分修复 PR 一分钟审完直接 auto merge。技术债从一周一次人工清扫变成了每天持续自动偿还。OpenAI 原文里有一句话特别准技术债就像一笔高利息贷款几乎永远应该每天小额还一点而不是攒着等某一天集中还。原则技术债不是攒一堆集中还而是每天让后台 Agent 自动偿还一点。总结重启胜过修补生产验收分家与其催模型不如改环境规则宁缺毋滥技术债天天还。Hermes Agent vs OpenClaw两种 Harness 实现面试官会问“你了解 Hermes Agent 和 OpenClaw 吗它们和 Harness Engineering 什么关系”先定性Harness 是方法论Hermes 和 OpenClaw 是实现Harness Engineering 是方法论 / 架构思想Hermes Agent 和 OpenClaw 是基于这种思想的两种具体实现。面试时先把这个结构说出来面试官就知道你分得清思想和产品。Harness Engineering与Hermes Agent、Claude Code、OpenClaw的关系OpenClaw小龙虾OpenClaw 是一个开源的个人 AI 助手你可以在自己的设备上运行。吉祥物是一只太空龙虾叫 Molty所以圈子里叫它小龙虾。它的核心定位是消息优先、本地优先——一个网关进程打通 25 消息平台WhatsApp、Telegram、Slack、Discord、微信、QQ、飞书……你的 AI 助手无处不在。OpenClaw 的 Harness 特点能力实现方式上下文管理AGENTS.md / SOUL.md / TOOLS.md 注入工具系统MCP 协议 ClawHub 技能市场执行编排单 Agent 循环记忆与状态本地文件持久化评估与观测基础日志约束与恢复沙盒后端Docker/SSHOpenClaw 是个成熟的个人助手——消息全平台覆盖、本地隐私优先、技能市场丰富。但它的 Harness 本质上是一个工具执行系统你给 prompt、给 tools它调工具、返回结果。Hermes Agent爱马仕Hermes Agent 是 Nous Research 出品的自进化 Agent标语是The agent that grows with you和你一起成长的 Agent。Hermes 做了一个非常关键的升级**从工具执行系统 → “自进化系统”**。它和 OpenClaw 最大的区别就是内置了一个学习闭环Learning LoopHermes学习闭环 vs OpenClaw线性执行执行任务 → 总结经验 → 生成 skill → 存入记忆 → 下次复用Hermes 的 Harness 特点能力实现方式上下文管理AGENTS.md 动态加载工具系统MCP 自生成技能~/.hermes/skills/执行编排单 Agent 子 Agent 并行委派记忆与状态持久化记忆 Honcho 方言式用户建模 FTS5 会话搜索评估与观测自我督促 LLM 摘要跨会话回忆约束与恢复6 种终端后端 定时任务cron核心对比谁强在哪维度OpenClawHermes Agent定位个人 AI 助手自进化 Agent语言TypeScriptPython消息平台25覆盖最广6 个CLI/Telegram/Discord/Slack/WhatsApp/Signal技能来源ClawHub 市场社区贡献自主生成 agentskills.io 标准记忆系统基础持久化深度用户建模 跨会话搜索 自我督促学习能力无每次都是新手有从经验中创建技能越用越强研究能力无批量轨迹生成 RL 训练环境迁移友好度—内置hermes claw migrate从 OpenClaw 导入一句话总结区别OpenClaw 让模型能干活——全平台接入工具齐全但每次都是新手。Hermes Agent 让模型越干越强——它会记住做过的事、生成新技能、下次直接复用是 Harness Learning Loop 的结合体。面试答法面试时先说清楚 Harness 是方法论、Hermes 和 OpenClaw 是实现。然后对比两者OpenClaw 是工具执行系统消息覆盖广Hermes 是自进化系统核心差异化是学习闭环。和 Prompt/Context Engineering 到底什么关系面试官会问“这三个 Engineering 是替代关系吗我都要学吗”不是替代是包含三者根本不是替代关系而是包含关系Prompt 是对指令的工程化Context 是对输入环境的工程化Harness 是对整个运行系统的工程化边界一层比一层大。Prompt 是 Context 的一部分Context 是 Harness 的一部分。当你做 Harness 的时候里面一定包含 Context 工程Context 工程里又一定包含 Prompt 工程。四层递进如果你把 Hermes Agent 的学习闭环也加进来可以看成四层递进层次解决什么一句话Prompt Engineering怎么说让模型听懂你想干啥Context Engineering给什么信息让模型知道该用什么Harness Engineering能干什么让模型持续做对Learning Loop会不会变强让模型越干越强面试核心点面试时别说我三个都会要说出理解层次先说清三者是包含关系不是替代关系再强调 Harness 是站在更大系统视角把前面两个包进去了最后点出真正的分水岭——当任务还是单轮对话时 Prompt 就够需要外部知识时 Context 关键但进入长链路、可执行、低容错的真实场景Harness 几乎是不可避免的。大厂真实面试追问汇总以下是各大厂在 Harness Engineering 方向的真实追问整理汇总。概念理解类QHarness Engineering 和 MLOps 有什么区别MLOps 侧重模型训练、部署、版本管理的工程化流程Harness Engineering 侧重模型上线后的运行环境设计——工具、约束、评估、恢复。MLOps 是怎么把模型搞上线Harness 是上线后怎么让它跑得稳。两者互补MLOps 偏训练侧Harness 偏运行侧。QAgent Model Harness 这个等式你怎么理解除了模型本身之外几乎所有决定 Agent 能不能稳定交付的东西都属于 Harness——工具、上下文文件、记忆系统、评估机制、约束规则、恢复策略。换模型提升的是天花板搭 Harness 提升的是落地能力。在模型迭代速度放缓的今天Harness 这部分的提升空间可能比你想象的大得多。QContext Engineering 和 RAG 是什么关系RAG 是 Context Engineering 的一种具体实现技术——它解决召回这一步从大量文档中找出最相关的。Context Engineering 还包括压缩摘要提炼和组装按顺序排布RAG 只管了第一步。技术深挖类QAgent 跑久了上下文腐化怎么办三步先做上下文压缩摘要提炼历史对话腾出空间如果压缩还不够模型带着疲惫感做 Context Reset整个上下文窗口丢掉换干净的状态从文件系统恢复关键是状态必须外化到文件而不是留在上下文窗口里。QAGENTS.md 越写越长效果变差怎么办改成渐进式披露主文件只保留核心索引OpenAI 建议约 100 行详细规则拆到子文档Agent 按需加载。这和 Anthropic 的 Agent Skills 是同一思路——不一开始塞所有信息而是需要时才动态注入。QHermes Agent 的学习闭环具体怎么工作Agent 执行完一个复杂任务后自动从经验中提取模式生成一个 skill 文件存在 ~/.hermes/skills/下次遇到类似任务时搜索已有 skill 直接复用同时在使用中不断改进 skill。这和 Mitchell Hashimoto 说的复利效应一脉相承——每次犯错都沉到环境里环境越来越强Agent 越来越稳。生产实战类Q你们 Agent 的技术债怎么管理技术债不能攒着集中还。两种做法一是把工程师的经验写成 Golden Principles黄金原则沉进仓库让 Agent 按规则写代码二是让后台 Agent 定期自动扫描仓库找偏离开修复 PR人类快速审核合并。每天自动还一点比攒到周五集中清效果好得多。Q怎么给非技术人员解释 Harness Engineering 的价值“LLM 就像高速公路上的自动驾驶——能跑很快但如果不装刹车、不装安全气囊、不装仪表盘你敢坐吗Harness Engineering 就是给 AI 装刹车和安全气囊。没有它AI 越强大越危险。”写在最后AI 工程的重心过去两年换了三次Prompt 解决怎么说Context 解决给什么信息Harness 解决能不能持续做对。这三个不是替代关系是包含关系——Prompt 是 Context 的一部分Context 是 Harness 的一部分。Harness Engineering 之所以在 2026 年火了不是因为又造了个新词而是因为 AI 真正上了生产。银行用 LLM 审贷款、医院用 LLM 辅助诊断、客服用 Agent 处理投诉——能用不等于可靠模型幻觉一次就是真金白银的损失。Agent Model Harness。换模型提升天花板搭 Harness 提升落地能力。Hermes Agent 比 OpenClaw 多走了一步——不只是让模型能干活而是让模型越干越强。如果你最近在做 Agent别再把所有精力花在调模型、调提示词上了。回过头看看你的 Harness 长啥样——有没有规则文件、有没有校验闭环、有没有任务编排、有没有评估机制、有没有失败恢复、有没有学习闭环。这些东西每一项都能让你的 Agent 上一个台阶。会搭 Agent 的人越来越多但能让 Agent 在生产环境稳定运行的人才是稀缺的。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相关文章:

面试官直播拷打我:“是否了解Harness Engineering?”,我笑了:“LLM很强,但如果不能拴住、监测、约束,都白搭”。面试官一直在点头。

Harness Engineering 是什么?从哪冒出来的? 面试官一般这么问:"你听说过 Harness Engineering 吗?“或者"Agent Model Harness,你怎么理解这个等式?” 先搞清楚:Harness 是什么&am…...

【独家内测数据】Copilot Next 启动耗时从2.8s压至0.41s:3步完成工作流自动化重构(附可复用JSON Schema模板)

更多请点击: https://intelliparadigm.com 第一章:Copilot Next 自动化工作流性能调优全景概览 Copilot Next 并非传统代码补全工具的简单升级,而是基于实时上下文感知、多模态意图理解与动态工作流编排能力构建的智能协同引擎。其性能表现…...

从 System.out.println() 到内核深处:一次系统调用的“万里长征”

你随手写下一行 System.out.println("Hello World"),它优雅地打印在终端。 但在这行代码背后,JVM、glibc、内核、终端驱动之间发生了一场“万里长征”。 每一次用户态到内核态的切换,都是一次昂贵的上下文跳跃。 而你在日志里狂打几…...

你的K210模型精度低?可能是数据集和MaixHub训练参数没搞对(实战避坑分享)

你的K210模型精度低?可能是数据集和MaixHub训练参数没搞对(实战避坑分享) 当你在MaixHub上训练完一个目标分类模型,满心期待地部署到K210开发板上测试时,却发现识别结果不尽如人意——误识别率高、特定场景下完全失效&…...

NewTab Redirect! 终极指南:如何彻底掌控你的浏览器新标签页

NewTab Redirect! 终极指南:如何彻底掌控你的浏览器新标签页 【免费下载链接】NewTab-Redirect NewTab Redirect! is an extension for Google Chrome which allows the user to replace the page displayed when creating a new tab. 项目地址: https://gitcode.…...

3步轻松上手:哔哩下载姬DownKyi完整使用教程,免费获取B站高清视频

3步轻松上手:哔哩下载姬DownKyi完整使用教程,免费获取B站高清视频 【免费下载链接】downkyi 哔哩下载姬downkyi,哔哩哔哩网站视频下载工具,支持批量下载,支持8K、HDR、杜比视界,提供工具箱(音视…...

告别真机调试!手把手教你用Android模拟副屏调试Presentation双屏异显功能

告别真机调试!Android模拟副屏开发全指南 在移动应用开发领域,多屏交互正成为提升用户体验的新趋势。想象一下,你正在开发一款需要同时在主屏和副屏显示不同内容的应用——可能是餐厅的点餐系统、医疗诊断工具或是车载信息娱乐系统。但现实很…...

打破物理限制!Parsec VDD虚拟显示器:游戏直播与远程办公的终极解决方案

打破物理限制!Parsec VDD虚拟显示器:游戏直播与远程办公的终极解决方案 【免费下载链接】parsec-vdd ✨ Perfect virtual display for game streaming 项目地址: https://gitcode.com/gh_mirrors/pa/parsec-vdd 还在为显示器不够用而烦恼吗&#…...

RK3399开发板开机动画进阶:从bootanimation.zip制作到动态更新Logo分区全解析

RK3399开发板开机动画进阶:从bootanimation.zip制作到动态更新Logo分区全解析 当RK3399开发板启动时,用户首先看到的是开机Logo,紧接着是动态的开机动画。这两个元素不仅是设备启动过程中的视觉呈现,更是品牌展示和用户体验的重要…...

别再问Markdown怎么合并单元格了,用这3个HTML属性5分钟搞定

突破Markdown表格限制:HTML合并单元格实战指南 在技术文档写作、知识管理工具(如Obsidian、Typora、Notion)或静态博客(如Hugo、Jekyll)中,Markdown因其简洁高效的特性成为首选格式。然而,当我…...

告别依赖混乱!在Ubuntu 22.04上为不同项目安装多个.NET版本(SDK 8.0/7.0/6.0)的保姆级指南

多版本.NET开发实战:Ubuntu 22.04下的SDK并行管理艺术 在跨版本.NET项目并行的开发场景中,开发者常陷入"依赖地狱"——A项目需要.NET 6.0的特定功能,B项目依赖7.0的新API,而团队协作又要求本地环境与CI/CD管道保持版本一…...

Go语言Redis怎么做分布式锁_Go语言Redis分布式锁教程【基础】

Redis的SETNX命令只接受key和value两个参数,若用Do方法多传参数(如EX),会导致协议解析失败而返回nil;应改用SET命令的NXEX选项或go-redis/v9的SetNX方法。redis.Client.Do 调用 SETNX 为什么总是返回 nil?G…...

ESP32物联网继电器板开发与应用指南

1. ESP32 IoT继电器板项目概述这款信用卡大小的ESP32物联网继电器板最近在Kickstarter上引起了我的注意。作为一名长期从事智能家居开发的工程师,我见过太多ESP32继电器板,但这款产品的几个设计亮点确实值得深入探讨。它集成了四个工业级继电器&#xff…...

SD-PPP:终极免费Photoshop AI插件完全指南 - 5分钟开启AI绘画新纪元

SD-PPP:终极免费Photoshop AI插件完全指南 - 5分钟开启AI绘画新纪元 【免费下载链接】sd-ppp A Photoshop AI plugin 项目地址: https://gitcode.com/gh_mirrors/sd/sd-ppp 还在为AI绘画和Photoshop之间的繁琐切换而烦恼吗?SD-PPP这款革命性的开源…...

16.【ELK日志系统实战】一次线上“定位失败”让我重构日志体系:如何在3分钟内定位AI系统问题?(完整可复现方案)

【ELK日志系统实战】一次线上“定位失败”让我重构日志体系:如何在3分钟内定位AI系统问题?(完整可复现方案)一、问题场景(真实线上事故) 这次不是系统崩溃,而是更“折磨人”的问题: …...

高效构建金融图表:Lightweight Charts 5个实战技巧与进阶指南

高效构建金融图表:Lightweight Charts 5个实战技巧与进阶指南 【免费下载链接】lightweight-charts Performant financial charts built with HTML5 canvas 项目地址: https://gitcode.com/gh_mirrors/li/lightweight-charts Lightweight Charts 是由 Tradin…...

15.【AI系统限流与熔断实战】一次线上崩溃教会我:如何用限流+熔断保护系统?(完整可复现方案)

【AI系统限流与熔断实战】一次线上崩溃教会我:如何用限流熔断保护系统?(完整可复现方案)一、问题场景(真实线上事故) 这篇文章不是“理论”,是我真实踩过的坑。 系统上线第2周,一个很…...

SQL实现多表高效聚合查询的技巧_JOIN配合聚合函数使用

GROUP BY 必须包含所有非聚合字段,否则MySQL 5.7/PostgreSQL严格模式报错;LEFT JOIN聚合需注意NULL对COUNT(*)/COUNT(字段)/AVG的影响;ON与WHERE位置错误会导致LEFT JOIN退化为INNER JOIN;大表JOIN前应先子查询或CTE预聚合以减少数…...

深度解析llama-cpp-python:3大核心模块与4步实战配置指南

深度解析llama-cpp-python:3大核心模块与4步实战配置指南 【免费下载链接】llama-cpp-python Python bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python llama-cpp-python作为llama.cpp项目的Python绑定库,为…...

重新定义AI与浏览器交互范式:Playwright MCP的无障碍快照革命

重新定义AI与浏览器交互范式:Playwright MCP的无障碍快照革命 【免费下载链接】playwright-mcp Playwright MCP server 项目地址: https://gitcode.com/gh_mirrors/pl/playwright-mcp 在AI驱动的自动化领域,传统基于视觉模型的浏览器交互方案面临…...

如何用WeChatMsg守护你的数字记忆:从聊天记录到个人AI数据中心的蜕变

如何用WeChatMsg守护你的数字记忆:从聊天记录到个人AI数据中心的蜕变 【免费下载链接】WeChatMsg 提取微信聊天记录,将其导出成HTML、Word、CSV文档永久保存,对聊天记录进行分析生成年度聊天报告 项目地址: https://gitcode.com/GitHub_Tre…...

3个步骤告别Switch限制:用大气层系统解锁游戏机隐藏潜能

3个步骤告别Switch限制:用大气层系统解锁游戏机隐藏潜能 【免费下载链接】Atmosphere-stable 大气层整合包系统稳定版 项目地址: https://gitcode.com/gh_mirrors/at/Atmosphere-stable 你是否曾想过,为什么别人的Switch能运行自制软件、修改游戏…...

告别DCC工具:在UE5中纯代码创建可交互的StaticMesh(从MeshDescription到点击事件全流程)

纯代码构建UE5交互式StaticMesh:从MeshDescription到事件响应的工程实践 在游戏开发中,动态生成3D模型并赋予交互能力是程序化内容生成的核心需求。传统工作流依赖DCC工具(如Blender或Maya)导出静态模型,但这种方式在需…...

四叶草拼音:从输入困境到极致体验的蜕变之旅

四叶草拼音:从输入困境到极致体验的蜕变之旅 【免费下载链接】rime-cloverpinyin 🍀️四叶草拼音输入方案,做最好用的基于rime开源的简体拼音输入方案! 项目地址: https://gitcode.com/gh_mirrors/ri/rime-cloverpinyin 你…...

别再死记硬背公式了!用PyTorch代码实战推导普通/深度可分离/分组卷积的参数量与FLOPs

用PyTorch代码实战验证卷积层的参数量与计算量 在深度学习模型优化过程中,理解不同卷积操作的参数量(Params)和浮点运算量(FLOPs)至关重要。本文将带您通过PyTorch代码实际构建普通卷积、深度可分离卷积和分组卷积层,并使用torchinfo和thop工具验证理论计…...

5分钟终极指南:用Win11Debloat让你的Windows 11系统焕然一新

5分钟终极指南:用Win11Debloat让你的Windows 11系统焕然一新 【免费下载链接】Win11Debloat A simple, lightweight PowerShell script that allows you to remove pre-installed apps, disable telemetry, as well as perform various other changes to declutter …...

Windows 11终极优化指南:用Win11Debloat快速清理系统并提升性能

Windows 11终极优化指南:用Win11Debloat快速清理系统并提升性能 【免费下载链接】Win11Debloat A simple, lightweight PowerShell script that allows you to remove pre-installed apps, disable telemetry, as well as perform various other changes to declutt…...

Java向量API硬件加速落地失败?3类CPU指令集兼容性断层(AVX2/AVX-512/SVE)导致JIT退化真相

更多请点击: https://intelliparadigm.com 第一章:Java 25 向量 API 硬件加速落地困局全景透视 Java 25 正式引入了 jdk.incubator.vector 模块的 GA 版本,标志着 JVM 层面向量计算能力迈入生产就绪阶段。然而,真实场景中硬件加速…...

热泵干燥装置电控系统设计(论文+程序)

热泵干燥装置电控系统是提升干燥效率与节能效果的核心环节,其设计需兼顾温度、湿度、风速等多参数的精准调控。传统干燥设备多依赖人工经验调节,存在能耗高、稳定性差等问题,而电控系统的引入通过传感器实时采集数据,结合逻辑控制…...

汽车变速箱加工工艺及夹具设计(毕业设计)论文+CAD图纸+工艺卡+文献翻译……

汽车变速箱作为车辆动力传输的核心部件,其加工质量直接影响整车性能与可靠性。在变速箱制造过程中,加工工艺与夹具设计是保障零件精度、提升装配效率的关键环节。加工工艺需综合考虑材料特性、加工顺序及刀具选择,例如齿轮类零件需通过滚齿、…...