当前位置: 首页 > article >正文

LLM Wiki + Research Skill Graph + Obsidian 从零构建你的个人知识库和研究引擎

2026年4月3日安德烈·卡帕西OpenAI联合创始人、特斯拉前人工智能主管也是“氛围编程”一词的创造者发布了一条标题为“大语言模型知识库”的推文讲述了他如今如何利用大语言模型构建个人知识维基而非仅用于生成代码。这条推文迅速爆红。 次日他又发布了新内容一份“创意文件”完整阐述了该理念背后的架构、理念与工具。所谓创意文件也是他这次提出来的新概念。他的原话是textThe idea of the idea file is that in this era of LLM agents, there is less of a point/need of sharing the specific code/app, you just share the idea, then the other persons agent customizes builds it for your specific needs.” “创意文件的理念是在这个大语言模型智能体的时代分享具体的代码或应用的意义/必要性已经不大了你只需分享创意对方的智能体就会根据你的具体需求进行定制并构建出来。”这是一个微妙却意义深远的转变。传统上开发者做出实用的东西后会分享实现方案一个 GitHub 代码仓库、npm 上的一个包、一个 Docker 镜像。接收者会克隆它、配置它并运行它。但在人人都能使用大模型智能体Claude Code、OpenAI Codex、OpenCode、Cursor 等的时代分享创意可能比分享代码更有价值。因为思路是可移植的而代码是特定的。卡帕西在 macOS 上使用 Obsidian 搭配 Claude Code。你可能在 windows 上使用 VS Code 搭配 OpenAI Codex。一个共享的 GitHub 代码仓库需要被复刻、修改和调试。而一个共享的思路文件只需复制粘贴到你的智能体中你的智能体就会构建出一个完全适配你具体环境的版本。话说回来LLM Wiki 解决了知识怎么存。但是存进去了怎么用呢如果你只是基于这个知识库给大模型一个提示词去问问题那得到的答案可能也不是很好。因为模型的上下文是有限的注意力是会漂移的。为了解决这个问题我找到了一个和LLM Wiki完美互补的方案Research Skill Graph。Research Skill Graph 搭建了一套基于知识库做深度研究的方法论它通过定义一套深度研究的方法论来规范LLM的研究行为提升最终的效果。这篇文章会完整系统的介绍LLM Wiki和Research Skill Graph的原理、使用方式以及如何将二者结合做出一个个人的知识库研究引擎。1: RAG和传统笔记工具的共同的死因维护成本太高RAG系统和传统笔记工具都有一个共同的死因那就是维护成本太高。没有人愿意在周末花三个小时更新30个过时的Wiki页面。人类对知识整理的热情曲线是这样的前三天高涨然后指数级衰减。除了维护成本RAG还有一个重要的问题那就是知识无法沉淀。RAG的工作流程大概是这样子的。输入一个prompt。程序对你的prompt进行分词分词后到向量数据库检索每个检索的内容都有一个得分。程序根据得分进行rerank筛选有效的信息。那个promptrerank出来的信息再次调用LLM 进行内容生成。这就是所谓的检索增强生成。你有没有发现一个问题那就是RAG的流程每次都是从1-5。跑完之后没有任何的反馈和沉淀。Karpathy 在创意文件里面指出““The LLM is rediscovering knowledge from scratch on every question. There’s no accumulation.”““LLM 每次都在从零重新发现知识。没有积累。”这个问题的本质是认知浪费。假设你有一个包含 50 份研究报告的知识库想问一个需要综合其中 5 份报告的复杂问题。在 RAG 模式下LLM 必须找到这 5 份报告的相关片段拼出答案。下次你问一个相关但不同的问题它又得重来一遍推理链。RAG把知识当成一个可以随时搜索的数据库却忽略了知识需要编译、链接、维护。下面是传统RAG和LLM Wiki的对比。维度传统 RAGLLM Wiki知识处理时机查询时每次提问重新处理摄入时每条素材只处理一次交叉引用每次查询临时发现预构建并持续维护矛盾检测可能被忽略摄入时标记知识积累无——每次从零开始随素材和查询持续复利增长输出格式聊天记录临时性持久化 Markdown 文件可复用2: LLM Wiki 是什么2026 年 4 月 4 日Karpathy 发布了那个 GitHub Gist。开头是这么写的““A pattern for building personal knowledge bases using LLMs.”““一个用 LLM 构建个人知识库的模式。”Karpathy是这么描述LLM Wiki的注意他用的词是 “pattern”模式。LLM Wiki 的核心思想是不要在查询时检索原始文档而是让 LLM 持续地、增量地构建和维护一个持久的结构化的、相互链接的 Markdown 文件集合也就是Wiki。当你添加一条新素材时LLM 不是简单地把它索引用于后续检索而是阅读素材提取关键信息再整合到已有的 Wiki 中。这个整合包括更新实体页面、修改主题摘要、标注新旧数据之间的矛盾、加强或挑战正在演化的综合分析。Wiki 是一个持久的、复利增长的产物。交叉引用已经存在。矛盾已经被标记。综合分析已经反映了你读过的所有内容。3LLM Wiki的三层架构LLM Wiki 的架构由三层组成1. Raw 层 — 你的原始素材库文章、论文、图片、数据文件——所有你搜集的原始素材。这一层是不可变的immutable。LLM 永远不会动raw目录下的任何文件。实际操作中Karpathy 用 Obsidian Web Clipper 把网页剪藏为 Markdown图片下载到 raw/assets/ 目录。社区里还有一个值得注意的实践vault 分离——保持个人主 vault 的高信噪比另建一个独立 vault 承载 Agent 生成的内容后文会详细讨论这个策略。2. Wiki 层 — LLM 编译后的结构化知识Wiki 层是整个架构的核心也是LLM的核心工作层。每条新素材进来时LLM 执行的是一次系统性的更新阅读素材、写摘要页面、更新索引、更新相关的实体和概念页面、追加时间记录、检查矛盾。一条素材可能会影响 10-15 个 Wiki 页面。一个LLM Wiki典型的目录结构如下wiki/ ├── index.md — 主目录所有页面的索引 ├── log.md — 时间线所有操作记录 ├── overview.md — 高层综合 ├── concepts/ — 概念页面 ├── entities/ — 实体页面 ├── sources/ — 素材摘要 └── comparisons/ — 比较分析index.md是内容导向的总目录。每一页都被列出附带链接、一句话摘要和可选的元数据日期、来源数量等。LLM 回答查询时会先读 index.md 定位相关页面再深入阅读。Karpathy 说这个机制在中等规模约 100 条素材、数百个页面下工作得惊人地好完全不需要 embedding-based RAG 基础设施。log.md是时间线。只追加不修改。每条记录以一致的格式开头如## [2026-04-02] ingest | Article Title这样你可以用简单的 Unix 工具解析它——grep ^## \[ log.md | tail -5就能获取最近 5 条记录。3. Schema 层 — 规则和配置schema层通过 一个文档比如 Claude Code 的 CLAUDE.md 或 Codex 的 AGENTS.md告诉 LLM Wiki 怎么组织的、有哪些约定、摄入素材、回答问题和维护 Wiki 时该遵循什么工作流。这个配置文件让 LLM 成为一个有纪律的 Wiki 维护者而不是一个通用聊天机器人。Schema 固化了三样东西目录结构、页面约定、操作工作流。页面约定里有一个关键的设计每条笔记顶部的一行摘要。MindStudio 的搭建指南专门强调了这一点““The one-line summary at the top of each note is surprisingly important. Claude reads it to decide whether the full note is relevant.”““每条笔记顶部的一行摘要出乎意料地重要。Claude 靠它判断整条笔记是否相关。”传统笔记是给人看的我们自己记住什么东西在哪然后导航过去。LLM Wiki 的笔记是给模型看的模型用摘要做初筛只深入阅读相关页面。每个 Wiki 页面都应有结构化的头部标题、一行摘要、标签、创建日期、关联页面。Schema并不是完全不可变的如果用了一段时间后发现某些约定不好用就改Schema。为了更好的理解这三层架构我们可以用软件编译的流程来类比一下raw是源代码LLM是编译器wiki是可执行文件健康检查是测试套件查询是运行时。源代码raw/原始的、人类编写的素材不可变编译器LLM读取源代码生成结构化输出可执行文件wiki/编译后的产物可以直接使用测试套件health check / lint定期检查一致性、发现矛盾运行时query用户在编译后的知识上提问和探索还可以用Git的内部对象模型来映射知识结构Git 概念知识映射含义Blob原子知识单元单个事实、模式、被否定的方案Tree目录/索引分类和导航结构Commit来源事件谁、什么时候、为什么加入这条知识Branch竞争假设平行的研究线索Merge综合/收敛假设的合成或解决Tag稳定快照经过验证/审计的知识版本这个映射的核心优势是内容去重——相同的知识产生相同的哈希值相同的结论不会在 Wiki 里出现两次。它同时解决了溯源问题每条知识的来源、时间和理由都被记录在案。4: LLM Wiki的维护Wiki的维护主要靠操作Ingest、Query、LintIngest摄入是 Wiki 增长的引擎。Karpathy 偏好一条一条摄入保持参与感Query查询不只是问问题。好的回答本身也应该被存回 Wiki查询是双向建设——你消费知识同时 Wiki 在增长。Lint检查是健康保障。健康检查主要做以下事情查找矛盾数据扫描多篇文章中互相矛盾的事实和数字。这种事情眼睛扫不过来但 LLM 可以在一次检查中找出“论文 A 说 X论文 B 说非 X”这样的冲突。补全数据空白找到某篇文章引用了一个概念页面遗失的情况自动去网上查找补全。相当于是让 Wiki 自我修复。发现隐含关联在表面看上去没有联系的页面之间找到隐含联系——这种事人类很容易忽略LLM 却能擅长。建议新页面根据现有页面的覆盖范围 / 密度推荐还应该新增哪些主题页面。从手工编辑到工具化自动化MCP Server以上三个操作定义了 Wiki 的完整生命周期。开源项目 llmwiki 将 Wiki 的核心能力抽象为 7 个工具wiki_query做关键词搜索并返回页面内容wiki_search对整个 wiki/ 文件夹做原始 grepwiki_list_sources列出原始素材文件wiki_read_page读取单个页面内容wiki_lint检查孤儿页面和断裂链接wiki_sync 触发素材到 Wiki 的更新与转换wiki_export导出为 AI 可理解的格式llms.txt、JSON-LD 等这 7 个工具本质上就是把 Ingest、Query、Lint 三个手工操作变成了程序化接口。这样任何 Agent 都能直接操作你的 Wikillmwiki 目前已经适配了 Claude Code、Codex CLI、Cursor、Gemini CLI、Copilot覆盖了当前主流的 AI 编程助手。LLM Wiki 可以用来做什么个人成长跟踪目标、健康、心理状态——把日记、文章、播客笔记归档构建一个关于自己的结构化画像深度研究在几周或几个月内深入研究一个主题——读论文、文章、报告增量构建一个有演化论点的综合 Wiki读书伴侣逐章归档构建人物页面、主题页面、情节线索页面。Karpathy 提到了 Tolkien Gateway——一个由志愿者花几年时间构建的、包含数千个相互链接页面的粉丝 Wiki。你可以独自做到类似的事情商业团队场景同样适用。由 LLM 维护的内部 Wiki素材来源可以是 Slack 线程、会议转录、项目文档、客户通话记录。 竞争分析、尽职调查、旅行规划、课程笔记——任何你在一段时间内积累知识并希望它有组织而非散乱的场景LLM Wiki 都能帮忙。LLM Wiki 不是银弹社区也有不同的声音评论区里nishchay7pixels 写道““The knowledge stored could easily be corrupted and it will become impossible for user to figure that out. The more you rely on Agent the more you will start doubting your own memory.”““存储的知识很容易被污染而用户将无法辨别。你越依赖 Agent就越会开始怀疑自己的记忆。”这个担忧是合理的。gnusupport则认为 LLM Wiki 本质上是一个自我延续的 LLM 上下文生成器——没有 LLM它只是一堆无组织的文件。他主张回到 Doug Engelbart 的 Dynamic Knowledge Repository 理念用 PostgreSQL 做确定性存储。他花了 23 年构建的 Hyperscope 系统积累了 245,377 名用户和 95,211 份超文档。两个观点都有道理但它们指向的是同一个问题信任边界。Karpathy 的 raw/ 不可变原则和 Obsidian CEO Steph Ango 的 vault 分离方案都在做同一件事——给什么是可信的划一条清晰的边界。保持个人主 vault 的高信噪比另建一个独立的Agent vault承载 LLM 生成的全部内容。两套 vault 互不污染你始终能在主 vault 里保持对知识来源的掌控。devsarangi2 提出了另一个实际问题团队扩展性。一个 PM 不需要 80% 的技术文档——同一份 Wiki 对不同角色的价值差异巨大。也就是说LLM Wiki 在个人场景下最有价值团队场景需要额外的角色过滤层。LLM Wiki 是一个强大的个人工具但它有自己的适用边界。信任边界需要设计角色差异需要处理数据质量需要持续审计。Part 5: 从零搭建实战指南理论讲够了现在动手。以下是搭建一个 LLM Wiki 的完整步骤。第 1 步安装 Obsidian 和 Claude CodeObsidian 是 LLM Wiki 的最佳前端本地优先、图谱视图、插件生态齐全。下载 Obsidian创建一个新的 Vault——就是一个文件夹里面所有东西都是纯 Markdown。Claude Code 是目前非常适合 LLM Wiki 的 Agent。它可以直接访问本地文件系统**。不需要复制粘贴告诉它笔记在哪直接问问题。Claude Code能读取指定文件或整个目录、跨文件搜索、创建和更新笔记、执行 shell 命令来过滤和组织。安装只需一行命令bashnpm install -g anthropic-ai/claude-code第 2 步创建目录结构在 Vault 根目录下执行bashmkdir -p raw/sources raw/assets mkdir -p wiki/index wiki/concepts wiki/entities wiki/sources wiki/comparisons git init这是最基础的骨架。raw/ 放原始素材不可变wiki/ 放 LLM 编译后的产物。第 3 步写 Schema 文件Schema 文件是你的 CLAUDE.md如果你用 Claude Code或 AGENTS.md如果你用 Codex。它告诉 LLM 怎么维护这个 Wiki。以下是一个最小可用版本markdown# LLM Wiki Schema项目结构raw/sources/ — 原始素材不可变raw/assets/ — 图片等附件wiki/ — LLM 生成的 Wiki由 LLM 维护页面约定每个 Wiki 页面必须包含 YAML frontmattertitle: 页面标题type: concept | entity | source | comparisonsources: [来源列表]related: [相关页面]created: YYYY-MM-DDupdated: YYYY-MM-DD此外每条笔记应包含一行摘要和标签方便模型快速判断相关性Summary: 一句话描述这条笔记的核心内容Tags: #topic1 #topic2摄入工作流Ingest阅读 raw/sources/ 中的新素材在 wiki/sources/ 写一条摘要更新 wiki/index.md更新相关实体/概念页面检查矛盾并标记在 wiki/log.md 追加记录查询工作流Query读取 wiki/index.md 定位相关页面阅读相关页面的完整内容综合回答附引用将有价值的回答存回 Wiki目录结构不要过度设计。一开始四五个顶层文件夹就够了随着素材积累自然演化出子目录。过早规划层级Schema 反而会变得脆弱。第 4 步摄入第一条素材安装 Obsidian Web Clipper 浏览器扩展把文章剪藏为 Markdown 保存到 raw/sources/。然后在 Vault 目录下启动 Claude Codebashcd ~/my-llm-wiki claude告诉它请处理 raw/sources/ 中最新的素材。它会按照 Schema 执行摄入工作流。第 5 步检查结果迭代 Schema打开 Obsidian检查生成的 Wiki 页面。发现问题就改 Schema。Karpathy 建议的检验标准是10 条素材测试摄入 10 条素材后问一个需要综合多条素材的问题。如果 Wiki 给出了从单条素材中无法获得的洞察系统就是有效的。实战技巧几条在搭建过程中会被反复验证的经验保持术语一致。如果你在一些笔记里写RAG在另一些笔记里写Retrieval-Augmented GenerationClaude 能关联它们——但选一种写法坚持用结果会更干净。笔记要聚焦。一个一万字的杂烩文档查询效果远不如十个一千字的专题笔记。每条笔记只覆盖一个主题用[[wikilinks]]连接相关笔记。用 /inbox 模式处理粗糙素材。把不知道该如何分类的笔记先扔进wiki/inbox/堆到一定数量再让 Claude 帮你归档整理。这比每条笔记都精雕细琢效率高太多。充分利用 Obsidian 插件生态。Karpathy 在 Gist 里推荐了几个插件Marp是一个基于 Markdown 的幻灯片格式Obsidian 也有对应插件——你可以直接从 Wiki 内容导出演示文稿不需要 PowerPoint。Dataview能跑查询页面 frontmatter——只要你的 LLM 给每个 Wiki 页面都按俱乐部约定添加了标签、日期和来源计数等 YAML 格式元数据Dataview 就能自动生成动态表格和列表。例如只要写一条 Dataview 查询语句就可以列出”过去七天内所有更新过的概念页面“比手动维护索引高效太多了。图片本地化。Karpathy 在 Gist 里分享了个具体实践把图片也下载到本地而不是仅保留外部 URL 引用。在 Obsidian 的 Setting → Files and links 设置附件文件夹的路径是一个固定目录比如raw/assets/搜索 Hotkeys 里的”Download“把”Download attachments for current file“绑定一个快捷键比如 CtrlShiftD。粘进文章后按下快捷键所有图片都会自动下载到本地。这样你的 LLM 不但可以看到图片还可以直接引用到本地文件。进阶工具当 Wiki 足够大超过 50 条各类素材你可能会发现搜索上有些力不从心。有以下三条路可以走强化搜索能力除了 Obsidian 自带的功能Karpathy 还推荐了一个开源项目qmd——Shopify CEO Tobi Lutke 构建的原生 Markdown 搜索引擎结合了 BM25/向量搜索 LLM 重排序。更大规模上百条以上可以用 LlamaIndex 自行在 Markdown 文件构建向量索引为 Claude 加强语义搜索能力。端到端工具化如果你不想手动设置 Schema 和 Wiki 目录结构Pratiyush 推出了一个开箱即用的解决方案llmwiki。除了自动化它的核心价值还在于解决了 LLM Wiki 模式的一个实际痛点你用不同 AgentClaude Code/Cursor/Codex进行的会话记录可能分别被分散保存在不同目录下面。llmwiki 自动收集你的 Agent目前支持 Claude Code 和 Cursor产生的所有 .jsonl 转录文件并转换为 Karpathy 规范的 Wiki 格式。此外还自带静态站点生成器全局搜索CmdK暗色模式代码语法高亮面包屑导航相关文章推荐阅读时长估算……把本来只是一个文件夹的 Wiki 变成了一个可浏览的知识站点。更重要的是它的”双格式输出“设计每个生成的 HTML 页面对应一个 .txt 的纯文本版本和 .json 文件以及站点级的 llms.txt 和 JSON-LD 图谱从而让其他 AI Agent 能直接消费你的 Wiki 内容。自动化工作流程llmwiki 还提供了 SessionStart 的钩子函数——让你的 Wiki 在每次启动 Claude Code 时自动同步新会话还有文件观测器后台轮询 Agent 的存储目录。换句话说llmwiki 让 Wiki 的生长过程可以完全被动你正常使用 Claude Code / Cursor / Codex 处理知识而 Wiki 在背景自动更新编译。它还自带静态站点生成器全局搜索CmdK、暗色模式、语法高亮、面包屑导航、相关页面推荐、阅读时间估算——把 Wiki 从文件夹变成了一个可浏览的知识站点。更值得注意的是它的双格式输出设计每个 HTML 页面都有对应的 .txt 和 .json 文件以及站点级的 llms.txt 和 JSON-LD 图谱让其他 AI Agent 可以直接消费你的 Wiki 内容。工作流自动化llmwiki 还提供了 SessionStart hook——每次启动 Claude Code 时自动同步新会话以及 file watcher 后台轮询 Agent 存储目录。也就是说Wiki 的增长可以完全被动你正常使用各种 AI 工具Wiki 在后台自动编译。6: 从知识存储到知识使用 — Research Skill Graph话说回来LLM Wiki 解决了知识怎么存。但是存进去了怎么用呢如果你只是基于知识库给大模型一个 prompt 去问问题那跟直接问豆包区别不大。垂直领域的知识还好说科普类的素材你的 Wiki 未必拼得过通用模型的知识储备。真正的问题出在深度研究上。LLM Wiki 可能有一肚子货但不知道怎么吐出来。背后是两个硬伤。第一个硬伤上下文窗口塞不下。每个模型的推理能力都随输入长度增加而下降。LLM 对上下文的开头和结尾表现还行中间部分的注意力会显著丢失。简单点说你塞进去的领域知识越多Agent 对这些知识的处理能力就越差。第二个硬伤研究方法论缺失。人类做研究有一套方法论AI 做研究通常就是一个 prompt 搞定。方法论层面缺了一整层AI 研究的产出自然浅薄。这两个问题引出了另一个创意文件Research Skill Graph。6.1 Research Skill Graph 的设计理念Skill Graph 的核心理念不是某个具体的文件夹结构或视角组合而是四条设计原则。原则 1方法论固化。研究方法论不应该存在于 prompt 里它应该写进文件。Prompt 是一次性的文件是持久的。你把怎么看问题“怎么评估来源”怎么处理矛盾写成独立的 .md 文件Agent 每次都用同一套方法论结果是可复现的。原则 2图谱而非容器。知识库是一个容器你往里扔东西需要的时候搜索。Skill Graph 是一张图谱每个知识节点通过[[wikilinks]]互连Agent 像研究员查文献一样按需导航而不是把所有内容一次性塞进上下文。这直接回应了Lost in the Middle问题每个节点足够短没有中间可以迷失。原则 3强制多角度拒绝单一结论。拿到一个研究问题后Agent 必须从多个完全不同的角度重新思考拒绝直接给出答案。常见视角比如技术、经济、历史、地缘、反向、第一性原理。我们可以根据自己的领域调整。做伦理研究可能需要加一个利益相关者视角做市场分析可能需要加一个竞争格局视角。方法论的核心不变强制多角度视角之间的张力才是洞察的来源。““Each lens must RETHINK the question, not just add more information. The technical lens and the contrarian lens should feel like they were written by two different researchers who disagree with each other.”“每个视角必须重新思考问题而不是简单叠加信息。技术视角和反向视角读起来应该像是两个互相不同意的研究员写的。”—— The Smart ApeAI 研究方法论博客原则 4质量可审计。研究产出必须可以事后追问。这个结论基于什么等级的来源为什么技术视角和反向视角冲突了这要求来源分级、合成规则、矛盾处理协议都写成文件每个环节有文档记录。下面是一个 Research Skill Graph 的具体实现/research-skill-graph ├── index.md ← 方法论固化Agent 从这里启动读执行流程 ├── research-log.md ← 质量可审计跨项目日志每个环节可追溯 ├── methodology/ ← 方法论固化4 个文件定义研究方法论 │ ├── research-frameworks.md │ ├── source-evaluation.md │ ├── synthesis-rules.md │ └── contradiction-protocol.md ├── lenses/ ← 强制多角度每个文件定义一个视角的行为约束 │ ├── technical.md │ ├── economic.md │ ├── historical.md │ ├── geopolitical.md │ ├── contrarian.md │ └── first-principles.md ├── projects/ ← 按研究课题归档 ├── sources/ ← 来源记录模板 └── knowledge/ ← 图谱而非容器概念和数据点跨项目累积 ├── concepts.md └──>6.2 质量保障机制Research Skill Graph 使用5种层次来评估来源等级类型示例Tier 1原始数据UN 数据集、同行评审论文Tier 2权威分析官方技术博客、论文Tier 3专业评论知名技术博主、行业报告Tier 4社区讨论Hacker News、Reddit 技术帖Tier 5社交轶事Twitter 帖子串、未验证信息这套来源评估标准也有配套红旗降级规则。如果某个来源存在利益冲突、混淆因果性或使用情绪化的语言Agent 会自动给这个来源降级。当进行跨视角合成时至少需要 4 个视角同时指向同一方向才能形成高置信度的结论。单个视角之间的矛盾并不会被解决而是会被记录下来。这套系统最大的价值在于可复现性。对于同一个来源LLM 今天可能认为它是高可信明天又可能会因为另一些证据而跳过。而如果把评估标准写进文件Agent 就会用同一个尺子次次都对标。6.3 Research Skill Graph 的局限性和适用边界说完优势Research Skill Graph 还有三个需要你注意的局限性。该系统的天花板取决于你写视角的文件质量。效果上限 视角文件写得有多严谨。你如果在反向视角文件里面写的核心问题跟技术视角文件差不多那 Agent 产出出来的所谓“反向分析”除了用来反向的角度之外跟技术分析没有区别。错误会越积累越多。如果 Agent 在某个项目里写了一个错误的数据点到>7: 112 — LLM Wiki x Research Skill Graph 实战组合LLM Wiki 回答的是我知道什么。Research Skill Graph 回答的是我怎么研究。两个系统在技术栈上天然兼容。都用纯 Markdown 文件都用[[wikilinks]]做节点互连都在 Obsidian 里运行都能被 Claude Code 直接读写。不需要任何适配层。放进同一个 Vault 就能用。7.1 组合方案实战一个研究课题的完整旅程下面用一个具体的研究课题走一遍完整流程。课题“LLM 推理成本优化”。第一步LLM Wiki 编译知识。把 30 篇相关素材拖进raw/。论文vLLM、TGI 的技术报告、技术博客Hugging Face 的推理优化系列、benchmark 报告Speculative Decoding 的延迟对比数据。每条素材逐一 ingest。LLM 编译出实体页面[[vLLM]]、[[Tensor Parallelism]]、[[Speculative Decoding]]、概念页面[[KV Cache 优化]]、[[量化方法]]、比较页面[[vLLM vs TGI]]。矛盾被自动标记。论文 A 说 INT4 量化几乎无损论文 B 在长文本场景下测出显著质量下降这个冲突会被写进相关页面的contradictions段。一条素材更新 10-15 个页面。30 条素材跑完你的 Wiki 里已经有了一张推理优化领域的知识网络有实体、有概念、有冲突、有时间线。第二步Skill Graph 六视角分析。在research-skill-graph/index.md中填入研究问题。Agent 启动研究流程先读index.md再读方法论文件然后逐视角分析。连接点在knowledge/目录。Agent 做六视角分析时会直接引用 Wiki 上已经编译好的页面而不需要重新检索。六个视角每个都有单独的路线Technical 视角引用[[KV Cache 优化]]的 benchmark 结果和[[vLLM vs TGI]]的对比实验结果。这些都是经过验证、Tier 1/Tier 2 源头整理编译的产物。Economic 视角整合不同方案的硬件投入和 TCO 数据。节省下来的推理算力去哪了换来了更多的部署复杂度这些 Tradeoff 要通过金钱来衡量。Historical 视角梳理推理优化技术是如何从贪心解码 → Speculative Decoding → MoE 演进的。每一步的优化解决了什么问题又带来了什么新问题。Contrarian 视角对刚刚整理到的结论提出质疑。假设“成本优化是无价的”的前提是不对的。在特定场景下优化带来的延迟抖动和工程复杂度可能让你比裸加 GPU 还要亏钱。First Principles 视角归 Zero。推理就是矩阵乘法运算由于矩阵不能缓存所以成本被内存带宽锁定。以此为底线哪些优化算子是根本哪些只是在浪费运算资源在边界“优化”第三步合成闭环。六视角分析完成后关键发现被写回 Wiki。比如Speculative Decoding 在长文本场景下的实际 ROI 低于理论值这个发现变成 Wiki 的新页面或已有页面的更新段落。下次 ingest 新素材时这些已编译的洞察参与更新。正循环就这样转起来了Wiki 提供持续积累的知识燃料Skill Graph 用方法论引擎精炼出洞察洞察写回 Wiki 成为新的已编译知识。每一个循环都让两个系统同时变得更厚。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相关文章:

LLM Wiki + Research Skill Graph + Obsidian 从零构建你的个人知识库和研究引擎

2026年4月3日,安德烈卡帕西(OpenAI联合创始人、特斯拉前人工智能主管,也是“氛围编程”一词的创造者)发布了一条标题为“大语言模型知识库”的推文,讲述了他如今如何利用大语言模型构建个人知识维基,而非仅…...

3大智能功能,彻底改变你的英雄联盟BP体验

3大智能功能,彻底改变你的英雄联盟BP体验 【免费下载链接】Seraphine 英雄联盟战绩查询工具 项目地址: https://gitcode.com/gh_mirrors/se/Seraphine 你是否还在为排位赛BP阶段手忙脚乱而烦恼?是否因为犹豫不决错过了最佳英雄选择时机&#xff1…...

HsMod终极指南:55项炉石传说增强功能完全解析与实战配置教程

HsMod终极指南:55项炉石传说增强功能完全解析与实战配置教程 【免费下载链接】HsMod Hearthstone Modification Based on BepInEx 项目地址: https://gitcode.com/GitHub_Trending/hs/HsMod HsMod是基于BepInEx框架开发的炉石传说游戏增强插件,为…...

XUnity.AutoTranslator完全指南:5分钟实现Unity游戏实时翻译

XUnity.AutoTranslator完全指南:5分钟实现Unity游戏实时翻译 【免费下载链接】XUnity.AutoTranslator 项目地址: https://gitcode.com/gh_mirrors/xu/XUnity.AutoTranslator 你是否曾经遇到过一款精彩的Unity游戏,但因为语言障碍而无法完全享受游…...

开源百度网盘提取码智能解析工具:技术实现与效率优化

开源百度网盘提取码智能解析工具:技术实现与效率优化 【免费下载链接】baidupankey 项目地址: https://gitcode.com/gh_mirrors/ba/baidupankey 在云存储资源分享日益频繁的技术环境中,百度网盘提取码查询已成为开发者、研究者和内容创作者面临的…...

GHelper:华硕笔记本性能控制的终极轻量级解决方案

GHelper:华硕笔记本性能控制的终极轻量级解决方案 【免费下载链接】g-helper Lightweight, open-source control tool for ASUS laptops and ROG Ally. Manage performance modes, fans, GPU, battery, and RGB lighting across Zephyrus, Flow, TUF, Strix, Scar, …...

3步解锁DownKyi:你的B站视频下载与管理终极解决方案

3步解锁DownKyi:你的B站视频下载与管理终极解决方案 【免费下载链接】downkyi 哔哩下载姬downkyi,哔哩哔哩网站视频下载工具,支持批量下载,支持8K、HDR、杜比视界,提供工具箱(音视频提取、去水印等&#xf…...

3秒解锁百度网盘资源:智能提取码查询工具完全指南

3秒解锁百度网盘资源:智能提取码查询工具完全指南 【免费下载链接】baidupankey 项目地址: https://gitcode.com/gh_mirrors/ba/baidupankey 还在为百度网盘分享链接的提取码而烦恼吗?每次看到心仪的学习资料、软件资源或影音文件,却…...

Real-Anime-Z惊艳效果:半透明衣物材质渲染+动漫式布料物理模拟对比展示

Real-Anime-Z惊艳效果:半透明衣物材质渲染动漫式布料物理模拟对比展示 1. 项目概述 Real-Anime-Z是一款基于Stable Diffusion技术的写实向动漫风格大模型,由Devilworld团队开发。这款模型最大的特点在于它独特的2.5D风格表现力——在保留真实质感的同时…...

S32K开发环境全攻略:基于S32 Design Studio和SDK的快速上手教程(含Arduino评估板)

S32K开发环境实战指南:从零构建智能车控系统 第一次拿到S32K开发板时,我盯着那排Arduino兼容的接口发呆了十分钟——这个汽车级MCU竟然能用面包板快速验证创意。NXP官方提供的工具链比想象中友好得多,但隐藏的坑也不少。本文将带你用S32 Desi…...

别再用Keil C51了!STC32G开发环境搭建避坑指南(FreeRTOS工程详解)

从C51到C251:STC32G开发环境迁移实战与FreeRTOS工程深度解析 当STC32G系列单片机以5元价位提供128KB Flash和12KB RAM的配置时,相信很多传统8051开发者都按捺不住升级的冲动。但真正开始环境迁移时,你会发现从Keil C51到Keil C251的转变远不止…...

从ARM转战RISC-V(沁恒CH32V307):写中断服务函数时,我踩过的那个‘坑’

从ARM到RISC-V的中断处理范式迁移:一位工程师的CH32V307实战手记 第一次在沁恒CH32V307开发板上触发GPIO中断时,我遭遇了职业生涯中最诡异的"一次性中断"现象——中断服务函数如同被施了魔法般仅执行一次就永久失效。作为有十年ARM Cortex-M开…...

机房摸鱼指南:手把手教你用C++卸载LibTDProcHook64.dll,绕过极域64位进程保护

深入解析极域64位系统下的进程保护机制与应对策略 在计算机教室或培训机构的日常使用中,极域电子教室软件作为教学管理工具被广泛采用。这款软件的设计初衷是为了方便教师统一控制学生机,实现屏幕广播、文件分发和远程协助等功能。然而,当学生…...

别再为电机供电发愁了!ESP12E电机拓展板与NodeMCU的电源配置详解(含L293D芯片分析)

ESP12E电机拓展板电源系统深度优化指南:从L293D芯片特性到实战供电方案 当你在机器人项目中使用NodeMCU配合ESP12E电机拓展板时,是否遇到过电机启动瞬间开发板重启、PWM信号不稳定或者L293D芯片异常发热的问题?这些现象背后往往隐藏着电源系统…...

**Vulkan实战进阶:从零构建高性能图形渲染管线(附完整代码流程)**在现代图形编程领域,**Vulkan**

Vulkan实战进阶:从零构建高性能图形渲染管线(附完整代码流程) 在现代图形编程领域,Vulkan 已成为跨平台、低开销、高性能渲染的首选 API。相比 OpenGL 或 DirectX 12,Vulkan 提供了更细粒度的控制能力,但也…...

**发散创新:基于Python的数字水印技术实战与应用深度解析**在多媒体内容日益泛

发散创新:基于Python的数字水印技术实战与应用深度解析 在多媒体内容日益泛滥的今天,版权保护已成为数字世界的核心议题之一。而数字水印技术作为信息隐藏的重要手段,正逐渐从理论走向工业级落地。本文将带你深入实践一种基于Python的鲁棒性图…...

**Jest 测试驱动开发新范式:从基础到高级实战指南**在现代前端工程化体系中,**单

Jest 测试驱动开发新范式:从基础到高级实战指南 在现代前端工程化体系中,单元测试已成为保障代码质量的核心防线。而作为 Node.js 生态中最流行的 JavaScript 测试框架之一,Jest 凭借其开箱即用的特性、出色的性能以及丰富的 API 支持&#x…...

Docker 27网络隔离增强使用,从原理到iptables底层规则映射的完整链路拆解

第一章:Docker 27网络隔离增强的核心演进与设计动机Docker 27 引入了面向多租户与零信任架构的网络隔离增强机制,其核心演进聚焦于内核级 eBPF 网络策略执行引擎的深度集成,替代传统 iptables 链式规则匹配路径,显著降低策略生效延…...

三甲医院已强制启用!Docker 27容器合规策略模板(含NIST SP 800-190附录B映射表)

第一章:Docker 27医疗容器合规强制落地背景与监管动因近年来,随着医疗AI模型训练、影像分析平台及区域健康大数据服务加速容器化部署,医疗信息系统对Docker等容器运行时的依赖度显著提升。2024年国家药监局联合卫健委发布的《医疗器械软件容器…...

【研报323】钠离子电池深度报告:钠电池的技术路线与增长机遇

本报告提供限时下载,请查看文后提示以下仅为报告部分内容:摘要:钠离子电池凭借海量自主可控的钠资源、优异的低温与安全性能,成为储能发展的重要选择,规模化后成本有望降至0.2-0.3元/Wh,经济性显著。2026年…...

一汽研制国内首颗多域融合芯片;国产高频软磁材料实现量产;宁德时代将发布钠电凝聚态等新技术;国轩高科将推第五代全场景磷酸铁锂电池

一汽联合研制国内首颗多域融合芯片牛喀网获悉,据中国一汽消息,中国一汽联合行业伙伴成功研制国内首颗车规级先进制程多域融合芯片“红旗1号”,集成五大功能域,实现“舱、驾、控”一体化。该芯片为面向智能汽车中央计算架构的多域融…...

135. 如何通过 Rancher2 Terraform Provider 升级由 Rancher 管理的 k3s 集群

How to use the Rancher2 Terraform Provider to update an existing downstream cluster managed by Rancher. 如何使用 Rancher2 Terraform Provider 来更新由 Rancher 管理的现有下游集群。Resolution 结局To do this import the k3s cluster into the Terraform configura…...

别再手动改Word了!用Python-docx-template批量生成上百份报告,附完整代码

用Python-docx-template实现Word报告批量生成:从模板设计到实战工作流 每次月底都要手动修改上百份业绩报告?合同条款调整导致全员返工?告别低效复制粘贴,用Python-docx-template实现真正的文档自动化。本文将带你从零构建一个完整…...

Visdom蓝屏别慌!手把手教你配置0.1.8.8版本并搞定环境切换(附测试代码)

Visdom蓝屏问题终极解决方案:从环境配置到实战测试 如果你正在使用Visdom进行深度学习训练过程的可视化,突然遭遇浏览器蓝屏的困扰,这篇文章将为你提供一套完整的解决方案。我们将从版本选择、环境配置到代码测试,一步步拆解这个常…...

别再手动创建PV了!用StorageClass在K8s里实现NFS动态存储(附完整YAML)

告别手动PV管理:Kubernetes动态存储实战指南 在Kubernetes集群中管理有状态应用时,持久化存储一直是DevOps工程师面临的核心挑战之一。想象一下这样的场景:你的团队正在为即将上线的电商平台部署数十个MySQL实例和Redis节点,每个数…...

别再画丑图了!用Mermaid在Markdown里画专业流程图(附VSCode插件配置)

技术文档美学革命:用Mermaid打造专业级流程图 在技术写作的世界里,流程图就像导航灯塔,指引读者穿越复杂逻辑的迷雾。但传统绘图工具带来的频繁切换和格式错位问题,常常让技术作者陷入"文档地狱"——Visio里精心设计的图…...

告别黑框!手把手教你用UEFI HII给固件写个图形化配置界面(附完整代码)

从命令行到图形化:UEFI HII实战开发指南 在固件开发领域,命令行界面(CLI)长期以来是配置系统参数的主要方式。但随着用户对友好交互体验的需求增长,图形化配置界面已成为现代固件的标配。UEFI Human Interface Infrast…...

当同行已经用 AI 实现精益管理,你的企业还在靠粗放式经营? [2026实战指南:基于实在Agent的企业级自动化闭环方案]

在2026年的商业语境下,企业间的竞争已不再是单纯的资源规模比拼,而是“管理颗粒度”的较量。 随着生成式AI从Demo演示步入核心生产环境,FinOps(云财务管理)的重心已全面转向AI支出管理。 根据最新行业数据显示&#xf…...

为什么说 2026 年,是企业 AI Agent 落地的关键一年?——从工具到执行,深度解析 2026 数字化分水岭下的实在Agent技术解决方案

2026年,全球企业数字化转型正式进入“智能执行”的深水区。 与过去两年大模型侧重于“对话”和“生成”不同, 今年的核心命题在于:如何让AI从一个“聊天机器人” 进化为能够自主规划、调用工具并完成复杂业务闭环的AI Agent(智能体…...

2026数字化时代,你的企业如何不被行业淘汰?实在Agent全域落地路径

进入2026年,“十五五”规划的开局之年,数字化转型已从企业的“加分项”彻底转变为“生存题”。 随着生成式AI从感知智能向**行动智能(Action AI)**的跨越,传统依赖人力堆砌、流程僵化的经营模式正面临前所未有的冲击。…...