当前位置: 首页 > article >正文

OpenClaw 运行时 | 上下文管理:从工程实践看龙虾“记忆”与“思考”的边界

在 AI Agent 技术快速发展的今天我们常常被各种炫酷的功能演示所吸引——能聊天、会调工具、可以跨平台协作的智能助手似乎无所不能。然而当我们将目光从表面的交互体验转向背后的工程实现时才会发现真正决定一个 Agent 系统能否长期稳定运行、能否高效处理复杂任务的关键往往隐藏在最基础也最核心的环节上下文管理。今天我们就以开源 Agent 框架 OpenClaw 为例深入探讨 AI Agent 的上下文管理机制。这不仅仅是一个技术实现细节的讨论更是理解现代 AI Agent 如何突破大模型固有局限、如何在有限资源下实现智能持续演进的关键视角。为什么上下文管理如此重要在深入 OpenClaw 的具体实现之前我们首先要理解上下文管理在 AI Agent 系统中的核心地位。想象一下如果人类失去了短期记忆每次对话都要从头开始那么任何复杂的任务协作都将变得不可能。对于 AI Agent 而言上下文就是它的“工作记忆”是连接过去与现在、理解任务脉络、保持对话连贯性的基础。然而AI 模型的上下文窗口是有限的。即使是最先进的模型上下文窗口也不过几十万 Token。当对话持续进行、消息不断累积时如何管理上下文就成了一个至关重要的问题。直接将所有历史消息作为上下文传递给模型会面临几个现实挑战Token 成本飙升每次 API 调用都会发送全部历史输入 Token 费用呈线性增长长期运行成本难以承受。上下文溢出风险超过模型窗口限制后请求直接失败导致服务中断。噪声干扰加剧过早的消息可能与当前话题无关反而会干扰模型的判断准确性。响应延迟增加输入 Token 越多模型首次响应的时间越长用户体验下降。OpenClaw 的设计者清醒地认识到这些挑战不能简单地依赖模型自身的能力而是在运行时层面构建了一套完整的上下文管理体系。这套体系的核心思想是将上下文管理从模型的“内部问题”转变为系统的“工程问题”通过多层策略实现智能化的资源分配与优化。OpenClaw 上下文的结构化组成要理解 OpenClaw 的上下文管理首先要了解它的上下文是如何构建的。与许多简单地将用户输入和历史对话拼接后直接发送给模型的系统不同OpenClaw 采用了一种高度结构化的上下文组装方式。固定系统提示词每次对话开始时OpenClaw 会自动生成并注入一组固定的系统提示词。这部分内容定义了 Agent 的基本行为规则、安全边界和可用工具。它就像是 Agent 的“操作系统内核”确保每次交互都在预设的框架内进行。系统提示词包含几个关键部分工具描述列出所有可用的工具及其调用方式安全规则明确禁止的行为和操作边界技能skills列表以结构化格式展示可用技能系统提示词中包含一个紧凑的技能列表名称描述位置但技能的详细指令默认不包含在提示词中。模型需要在特定场景下使用read工具去读取对应的SKILL.md文件这是一种按需加载的设计避免了将所有技能文档一次性塞满上下文窗口工作区workspace信息Agent 可访问的文件系统路径运行时环境当前时间、时区、主机信息等这种固定系统提示词的设计有一个重要优势它为 Agent 提供了稳定的身份认知和行为准则避免了每次对话都从“零认知”开始的问题。引导文件Project Context如果说系统提示词是 Agent 的“操作系统”那么 Project Context 就是它的“应用程序配置”。OpenClaw 会按固定顺序自动将工作区的 Markdown 文件注入到上下文中这些文件定义了 Agent 在特定场景下的具体行为模式。以“个人产品经理工作助理”场景为例系统会按顺序注入以下文件AGENTS.md行为总指挥定义工作流、权限和核心规则SOUL.md人格内核定义语气风格、价值观和边界规则TOOLS.md工具箱详细说明每个工具的使用规范MEMORY.md长期记忆存储用户信息、重要决策和避坑规则IDENTITY.md、USER.md等其他配置文件这种文件化注入机制的精妙之处在于修改即生效。用户可以通过编辑这些 Markdown 文件来调整 Agent 的行为而无需重启系统或修改代码。下一轮对话时系统会自动重新加载最新内容实现了配置的动态更新。按需召回的记忆系统OpenClaw 的记忆系统分为两个层次长期记忆和每日记忆。长期记忆通常存储在 MEMORY.md 中包含用户的常青知识、重要决策和偏好设置。每日记忆则按日期组织在 memory/YYYY-MM-DD.md 文件中记录当天的具体事务和进展。这里的关键设计是记忆不会自动全部注入上下文。系统采用“按需召回”的策略只有当用户提问涉及相关内容时模型才会自动调用 memory_search 、memory_get工具对所有每日日志进行语义关键词混合检索将 Top-N 相关片段追加到上下文的“相关记忆”部分。这种设计有两大好处一是避免了无关记忆对上下文的污染二是显著减少了 Token 消耗。想象一下如果每次对话都要加载用户过去所有的日志记录上下文很快就会超出模型限制。对话历史的智能管理对话历史是上下文中最动态的部分。OpenClaw 采用双层存储机制管理会话历史轻量级的 sessions.json 存储会话元数据而完整的对话记录则以 JSON Lines 格式保存在 {sessionId}.jsonl 文件中详细解析见OpenClaw 网关 | 会话隔离机制深度解析sessionKey如何成为AI Agent的“交通指挥中心”。当系统从转录文件中读取历史时会执行几个关键操作时间顺序维护确保历史消息按时间顺序排列Token 计算实时计算已占用 Token 数预算分配根据剩余上下文预算决定保留多少历史这种机制确保了系统能够在有限的上下文窗口内尽可能保留最相关、最重要的历史信息。当前用户输入任务的真实起点最后当前用户输入作为上下文的最末端部分注入。这意味着模型在理解当前任务时已经具备了完整的背景信息系统规则、项目配置、相关记忆和对话历史。这种“全景式”的上下文构建方式让 Agent 能够做出更加准确、连贯的决策。四层修剪策略OpenClaw 的上下文优化之道了解了上下文的组成结构后我们来看看 OpenClaw 如何解决最核心的问题在有限的 Token 预算下如何平衡信息的完整性与效率答案是它的四层修剪策略会话注入的优化管理。第一层消息数量限制这是最基础的防线。OpenClaw 允许为每个 Agent 配置最大保留消息数超出限制时最旧的消息会被丢弃。这种策略简单直接特别适合对话轮次有限、话题切换频繁的场景。配置示例显示系统支持按频道类型差异化设置私人对话dm可以保留更多消息如80条而群聊group则限制更严格如20条。这种差异化配置体现了对使用场景的深刻理解——私人对话通常需要更长的上下文连续性而群聊消息往往更加碎片化。第二层Token 数量限制消息数量限制虽然简单但不够精确——不同消息的 Token 长度差异很大。因此OpenClaw 引入了基于实际 Token 数的精确控制。系统会从最新的消息开始往回计算 Token当累计超过设定的 maxTokens 时停止丢弃更早的消息。同时系统还会为模型回复预留一定的 Token 空间reservedOutputTokens确保模型有足够的“思考空间”来生成响应。第三层TTL 时间衰减策略这是 OpenClaw 上下文管理中最具创新性的设计。TTLTime-To-Live时间衰减策略基于一个深刻的洞察人类对话具有天然的时间衰减特性。想想我们自己的对话习惯5分钟前的对话内容几乎都是相关的1小时前的可能部分相关昨天的对话大概率已经换了话题。OpenClaw 的 TTL 策略正是模拟了这种自然衰减。具体实现上系统定义了一系列时间规则最近5分钟内的消息全部保留5分钟到1小时的消息保留最近20条1到6小时的消息保留最近10条6到24小时的消息仅保留摘要超过24小时的消息不包含在上下文中这种策略的精妙之处在于它不是简单地按时间一刀切而是根据消息的“年龄”给予不同的处理方式。近期消息完整保留中期消息选择性保留远期消息则压缩或丢弃。这既保证了上下文的连贯性又大幅降低了 Token 消耗。第四层智能压缩机制当 TTL 规则指定某些时间段的消息需要压缩时OpenClaw 会启动智能压缩机制。系统会使用专门的模型通常选择成本更低的模型如 gpt-4o-mini将指定时间段的消息压缩为一段简洁的摘要。压缩过程不是简单的截断或删减而是语义层面的提炼。系统会要求压缩模型“保留关键信息和用户偏好”确保摘要能够准确反映原始对话的核心内容。压缩结果还会被缓存起来在一定时间内如1小时重复使用进一步优化性能。这四层策略从粗到细、从简单到智能构成了 OpenClaw 上下文管理的完整防线。它们协同工作确保系统在有限的资源下能够维持高质量的对话体验。缓存机制性能优化的秘密武器除了修剪策略OpenClaw 还设计了一套精密的缓存机制进一步优化上下文管理的性能。上下文缓存系统会缓存已经构建好的上下文避免每次请求都重新计算。缓存支持多种失效条件配置当有新消息时失效当配置变更时失效。这种设计既保证了数据的实时性又避免了不必要的重复计算。缓存存储支持内存和 Redis 两种方式用户可以根据部署环境和性能需求灵活选择。内存缓存适合单机部署响应速度快Redis 缓存适合分布式部署支持多节点共享。Prompt 缓存部分 AI 提供商如 Anthropic、OpenAI支持 Prompt Caching 功能OpenClaw 充分利用了这一特性。系统可以将很少变化的系统提示词标记为可缓存同时将最近 N 条消息标记为可缓存前缀。Prompt Caching 的效果非常显著——它可以将重复的上下文前缀的费用降低最多 90%。对于系统提示词较长、对话模式相对固定的场景这种优化带来的成本节约是巨大的。实际应用不同场景的配置策略理解了 OpenClaw 上下文管理的原理后我们来看看如何在实际应用中配置这些策略。不同的使用场景对上下文的需求差异很大需要针对性的优化方案。个人助手场景长对话、深度记忆个人助手通常需要处理复杂的多轮对话保持较长的记忆深度。推荐配置如下最大消息数100条最大 Token 数32000TTL 规则30分钟内全保留4小时内保留30条24小时内保留摘要超过24小时不保留智能压缩启用摘要最大 Token 1024{context: {maxMessages: 100,maxTokens: 32000,ttl: {enabled: true,rules: [{ maxAge: 30m, keep: all },{ maxAge: 4h, keep: 30 },{ maxAge: 24h, keep: summary },{ maxAge: inf, keep: none }]},compaction: { enabled: true, summaryMaxTokens: 1024 }}}这种配置平衡了记忆深度和成本效率适合需要持续跟踪复杂任务的个人工作助理。客服机器人场景短对话、快速响应客服对话通常较为简短话题切换频繁不需要很长的历史记忆。推荐配置最大消息数30条最大 Token 数8000TTL 规则10分钟内全保留1小时内保留10条超过1小时不保留智能压缩根据需求可选{context: {maxMessages: 30,maxTokens: 8000,ttl: {enabled: true,rules: [{ maxAge: 10m, keep: all },{ maxAge: 1h, keep: 10 },{ maxAge: inf, keep: none }]}}}这种配置注重响应速度和成本控制适合高频、短周期的客服交互。群聊机器人场景高频消息、低上下文需求群聊环境消息密度高但单条消息的信息量可能不大。推荐配置最大消息数15条最大 Token 数4000TTL 规则5分钟内全保留30分钟内保留5条超过30分钟不保留智能压缩通常不需要{context: {maxMessages: 15,maxTokens: 4000,ttl: {enabled: true,rules: [{ maxAge: 5m, keep: all },{ maxAge: 30m, keep: 5 },{ maxAge: inf, keep: none }]}}}这种极致精简的配置适合消息流动快、上下文连续性要求不高的群聊场景。监控与调优数据驱动的优化优秀的系统不仅要有好的设计还要有完善的监控和调优机制。OpenClaw 提供了一系列工具帮助用户了解上下文使用情况并进行优化。上下文使用统计通过命令行工具用户可以查看详细的上下文使用统计# 查看某Agent的上下文统计openclaw agent stats my-agent --context# 输出示例# 当前会话数: 36# 平均上下文Token: 8,234# 最大上下文Token: 28,102# 压缩执行次数: 16# 缓存命中率: 72%{monitoring: {alerts: [{name: context-overflow-warning,condition: context_tokens maxTokens * 0.9,action: log_warning}]}}这些数据为性能优化提供了量化依据。例如如果发现缓存命中率较低可能需要调整缓存策略如果压缩执行频繁可能需要重新评估 TTL 规则。上下文使用告警系统支持配置上下文使用告警当上下文 Token 数超过最大限制的特定比例如90%时触发警告。这种预警机制可以帮助运维人员提前发现问题避免服务中断。从工程视角看 OpenClaw 的设计哲学通过深入分析 OpenClaw 的上下文管理机制我们可以窥见其背后的设计哲学。这不仅仅是一套技术方案更是一种对 AI Agent 本质的深刻理解。分层治理的思想OpenClaw 将上下文管理分解为多个层次每层解决特定问题协议适配层处理平台差异路由分发层决定消息流向会话管理层维护对话状态上下文组装层构建完整信息环境修剪优化层控制资源消耗。这种分层设计让系统既灵活又稳定每层的变更不会影响其他层的功能。运行时导向的工程实践与许多“把 prompt 包一层 UI”的简单系统不同OpenClaw 真正在认真处理长期运行中的工程问题。去重机制防止消息重复处理会话车道确保上下文连贯错误回退保障系统稳定性资源清理避免内存泄漏——这些都是生产级系统必须考虑的细节。可扩展的架构设计通道插件、技能系统、子 Agent 机制、记忆索引这些设计让 OpenClaw 更像一个开放的 Agent 网关而不是封闭的应用。用户可以根据需要扩展功能而不必修改核心系统。成本意识的深度融入从 TTL 时间衰减到 Prompt 缓存从智能压缩到差异化配置OpenClaw 的每一个设计决策都体现了对成本效率的深刻思考。在 AI 应用大规模部署的今天这种成本意识不是可选项而是必选项。未来展望上下文管理的演进方向随着 AI 技术的不断发展上下文管理也将面临新的挑战和机遇。从 OpenClaw 的当前实现中我们可以预见几个可能的演进方向更智能的压缩算法当前的智能压缩虽然有效但仍有优化空间。未来的压缩算法可能会更加精细化能够识别对话中的关键转折点、重要决策时刻实现更精准的信息保留。个性化上下文策略不同用户、不同任务对上下文的需求差异很大。未来的系统可能会学习用户的使用模式自动调整上下文管理策略实现真正的个性化优化。跨会话知识迁移当前的上下文管理主要局限于单次会话内部。未来可能会出现跨会话的知识迁移机制让 Agent 能够在不同对话间共享学习成果实现持续的知识积累。边缘计算与本地优化随着边缘计算和本地模型的发展上下文管理可能会更多地在设备端完成减少对云端 API 的依赖提高响应速度并保护用户隐私。结语上下文管理是 AI Agent 的“内存管理”回顾计算机系统的发展历史内存管理曾经是操作系统设计中最复杂、最核心的挑战之一。从简单分区到分页机制从虚拟内存到缓存优化每一次突破都推动了计算能力的飞跃。今天在 AI Agent 的世界里上下文管理正在扮演类似的角色。它不仅仅是技术细节更是决定 Agent 系统能否从“玩具”走向“工具”、从“演示”走向“生产”的关键。OpenClaw 通过其精密的上下文管理体系向我们展示了一种可能的路径不是盲目追求更大的模型、更长的上下文窗口而是通过工程化的手段在有限的资源内实现最优的智能表现。这种务实而创新的设计思路或许正是 AI Agent 技术走向成熟的重要标志。对于开发者而言理解 OpenClaw 的上下文管理机制不仅有助于更好地使用这个框架更能从中汲取系统设计的智慧。在 AI 技术快速迭代的今天这种对基础架构的深入思考往往比追逐最新模型更有长期价值。毕竟真正优秀的系统不是那些功能最炫酷的而是那些在最基础的环节做得最扎实的。而上下文管理正是 AI Agent 系统中最基础、也最重要的环节之一。

相关文章:

OpenClaw 运行时 | 上下文管理:从工程实践看龙虾“记忆”与“思考”的边界

在 AI Agent 技术快速发展的今天,我们常常被各种炫酷的功能演示所吸引——能聊天、会调工具、可以跨平台协作的智能助手似乎无所不能。然而,当我们将目光从表面的交互体验转向背后的工程实现时,才会发现真正决定一个 Agent 系统能否长期稳定运…...

告别串口助手!用这款蓝牙调试App搞定HC-05/06模块与Arduino通信(附完整配置流程)

无线蓝牙调试革命:用手机App高效玩转HC-05/06与Arduino通信 在嵌入式开发领域,蓝牙模块一直是实现无线通信的热门选择。HC-05和HC-06作为经典的蓝牙串口透传模块,因其价格亲民、使用简单而广受欢迎。然而,传统的调试方式往往需要依…...

云代理商:2026 年阿里云与腾讯云云端部署Hermes Agent 详解

进入 2026 年,Hermes Agent 框架凭借其 "自主进化、技能积累、跨平台兼容" 的核心竞争力,已成为 AI 智能体领域开发者的首选架构。无论是个人开发者构建效率工具,还是小型团队打造专属助手,都能依托其强大的自我迭代能力…...

Hyperf 成熟方案的PHP数据清洗、ETL工具链最好的库

Hyperf 本身没有专门的"开箱即用 ETL"官方组件,但有几个成熟方案可以组合使用: rt — …...

告别HardFault:手把手教你为STM32H743的RAM周期自检划定“安全屋”

STM32H743 RAM周期自检的"安全屋"设计与实践 在嵌入式系统开发中,RAM的可靠性直接影响整个系统的稳定性。特别是对于STM32H743这类高性能MCU,如何在长期运行过程中实现RAM的周期自检,同时避免自检过程破坏关键数据导致HardFault&am…...

Android开发避坑:别再直接用startService了,系统进程调用异常(Calling a method...)的完整修复指南

Android系统进程服务调用异常深度解析与实战修复指南 引言 在Android系统级应用开发过程中,许多开发者都曾遭遇过这样的运行时异常:"Calling a method in the system process without a qualified user"。这个看似简单的错误提示背后&#xff…...

别再手动调IO了!用STM32+EtherCAT驱动4个步进电机,TwinCAT/Codesys配置全流程(附XML文件)

基于STM32的EtherCAT总线步进电机控制实战指南 在工业自动化领域,EtherCAT总线技术正逐步取代传统的脉冲控制方式,成为多轴运动控制的首选方案。本文将详细介绍如何使用STM32微控制器结合EtherCAT协议驱动4个步进电机,并完整解析TwinCAT和Cod…...

Cadence IC618实战:手把手教你搭建MOS共源放大器并完成DC/AC仿真(附SMIC 0.18um PDK)

Cadence IC618实战:从零构建MOS共源放大器与仿真全流程解析 在模拟IC设计领域,共源放大器作为最基础的增益单元,其设计质量直接影响整个信号链路的性能。本文将基于Cadence IC618平台和SMIC 0.18μm PDK,完整演示从环境配置到高级…...

Vivado里AXI DMA传输总卡住?手把手教你用AXI SmartConnect打通PL到PS的数据流

Vivado中AXI DMA传输卡死的深度诊断与SmartConnect优化实战 当你在Vivado项目中精心设计的AXI DMA数据流突然陷入沉默,所有信号指示灯都像被冻住一般,这种时刻往往令人抓狂。上周我就遇到了这样一个案例:客户在Zynq UltraScale MPSoC平台上构…...

杭州安卡工具:专注钢板钻智造,为钢结构孔加工提供高效解决方案

在钢结构工程、桥梁建设、船舶制造与铁路施工等领域,高效、稳定、高精度的金属钻孔工具,是保障工程质量与施工进度的关键。杭州安卡硬质合金工具有限公司(ACTOOL)凭借多年刀具制造经验与专业技术积淀,成为国内钢板钻领…...

CUDA内存层次暴雷预警:L2缓存一致性失效导致Transformer训练loss震荡——12家大厂共用的5行修复代码

更多请点击: https://intelliparadigm.com 第一章:CUDA内存层次暴雷预警:L2缓存一致性失效导致Transformer训练loss震荡——12家大厂共用的5行修复代码 问题现象与根因定位 在A100/H100多卡分布式训练中,当启用torch.compile(mo…...

微信小程序流量主条件

流量主条件 1.小程序累计独立访客 (UV) > 500 2.无刷粉行为且未曾有严重违规记录 大家可以在评论区放出自己的小程序码,大家互相扫一下,让世界充满爱吧! 这个是我所制作的小程序,大家扫过可以发出评论...

Oumuamua-7b-RP环境部署:conda torch29环境检查+GPU算力适配完整流程

Oumuamua-7b-RP环境部署:conda torch29环境检查GPU算力适配完整流程 1. 项目概述 Oumuamua-7b-RP 是一个基于Mistral-7B架构的日语角色扮演专用大语言模型Web界面,专为沉浸式角色对话体验设计。这个项目为日语角色扮演爱好者提供了一个直观的中文界面&…...

生物信息学实战:用R语言ggplot2为你的基因表达数据绘制‘高颜值’散点图与相关性分析报告

生物信息学实战:用R语言ggplot2为基因表达数据打造可视化分析与统计报告一体化方案 在基因表达研究的海洋里,数据可视化不仅是展示结果的窗口,更是发现科学故事的探照灯。想象一下,当你面对数百个基因的共表达矩阵时,如…...

为什么你的VSCode 2026在工控机上卡顿超2.3秒?揭秘GPU沙箱隔离、实时线程优先级与内存锁页的3层硬核配置

https://intelliparadigm.com 第一章:VSCode 2026工业编程适配配置的底层挑战与设计哲学 现代工业编程场景正快速演进——从PLC逻辑协同仿真、实时控制流建模,到边缘AI推理模块嵌入式调试,VSCode 2026需在保持轻量内核的前提下,支…...

Hypnos-i1-8B实战教程:用markdown mermaid语法生成推理流程图的实践

Hypnos-i1-8B实战教程:用markdown mermaid语法生成推理流程图的实践 1. 引言 Hypnos-i1-8B是一款专注于复杂逻辑推理和数学问题求解的8B级开源大模型。它基于NousResearch/Hermes-3-Llama-3.1-8B微调而来,通过量子噪声注入训练技术,在保持模…...

【嵌入式C语言轻量化适配指南】:3步实现大模型端侧部署,90%工程师忽略的内存对齐陷阱

第一章:嵌入式C语言轻量化适配的核心挑战与认知重构在资源受限的MCU(如Cortex-M0/M3、RISC-V 32位内核)上部署C语言程序,远非简单地“编译通过”即可。开发者常沿用通用Linux或桌面开发思维,忽视内存模型、启动流程与运…...

如何将 Honor 同步到 PC(5 个可行的解决方案)

荣耀智能手机以其实惠的价格、时尚的设计和强大的性能而闻名。然而,与任何移动设备一样,它们会积累大量数据(照片、视频、消息等),这些数据通常需要备份或传输到电脑上。无论您是要释放存储空间、备份关键数据&#xf…...

立即停用旧版Live Share!VSCode 2026内置协作引擎已通过ISO/IEC 27001认证,仅限Q2前首批注册团队开通白名单

更多请点击: https://intelliparadigm.com 第一章:VSCode 2026实时协作增强的演进与安全里程碑 VSCode 2026 将实时协作能力从“可选插件体验”升级为内核级原生支持,依托全新设计的分布式操作转换(DOT)引擎与端到端加…...

基于RexUniNLU的智能写作助手开发指南

基于RexUniNLU的智能写作助手开发指南 1. 引言 你是不是经常遇到写作卡壳的情况?面对空白的文档,脑子里有想法却不知道怎么组织成文字。或者写出来的内容总觉得不够专业,需要反复修改调整。现在,借助RexUniNLU这个强大的自然语言…...

别再只盯着算法了!搭建一个高可用的实时配送调度系统,架构设计与工程实践才是关键

高可用实时配送调度系统的架构设计与工程实践 当午间高峰期的外卖订单如潮水般涌入系统,或是"双十一"期间每分钟数万笔配送请求需要处理时,算法模型的理论最优解在工程实践中往往面临严峻挑战。真正决定系统成败的,是能否在每秒数万…...

网络工程师(第6版)详细目录

未来企业刚需:网络工程师认证,提升长期职业竞争力——破局者的极速进阶指南 引言:撕开“敲命令的接线员”标签,洞悉数字底座的架构师视角 在云计算、AI 大模型和边缘计算狂飙突进的时代,很多人对“网络工程师”这个职业…...

从OTA设计反推:为什么你的电流镜性能不达标?可能是Cascode没选对

从OTA性能瓶颈溯源:Cascode电流镜选型实战指南 在模拟CMOS集成电路设计中,电流镜如同血液循环系统般维持着整个电路的"生命体征"。当我们精心设计的运算跨导放大器(OTA)出现增益不足、输出摆幅受限或电源抑制比(PSRR)下降时,往往需…...

Latex学习第二坑——无法导入参考文献的bug

#latex 本人很喜欢使用latex来排版参考篇文献,确实非常方便。但是也有很多需要关注的小细节。下面结合这次文献编辑的经验。首先说bug的表现:(1)表现:使用pdflatexbibtexpdflatex*2的编译顺序,第一次编译会…...

不止于调试:用Modbus Poll深度解析Modbus TCP/IP协议帧,看懂每一行通信报文

不止于调试:用Modbus Poll深度解析Modbus TCP/IP协议帧,看懂每一行通信报文 当你熟练使用Modbus Poll完成设备读写时,是否好奇过点击"Read/Write Once"按钮后,工具与PLC之间究竟传递了哪些信息?那些十六进制…...

新手STM32第五节——按键控制LED

本节主内容是利用按键来控制LED的状态,这里要学习按键模块,涉及到设置按键驱动、LED驱动。首先是LED驱动模块:这里是借助Hardware文件夹下创建LED.c与.h文件,其中.c文件主要是写LED初始化函数、驱动函数(包括LED亮、灭…...

Fairseq-Dense-13B-Janeway多场景:从课堂演示到出版前审校的AI协同写作闭环

Fairseq-Dense-13B-Janeway多场景:从课堂演示到出版前审校的AI协同写作闭环 1. 模型概述与核心能力 Fairseq-Dense-13B-Janeway是一款专为创意写作设计的130亿参数大语言模型,由KoboldAI团队基于2210本科幻与奇幻题材电子书专项训练而成。该模型在保持…...

Phi-3.5-mini-instruct效果对比:中文开放域问答MMLU子集得分达68.4分

Phi-3.5-mini-instruct效果对比:中文开放域问答MMLU子集得分达68.4分 1. 模型概述 Phi-3.5-mini-instruct是一款专为中文场景优化的轻量级文本生成模型,在中文开放域问答任务中表现出色。最新测试数据显示,该模型在MMLU(大规模多…...

9 款 AI 写论文哪个好?2026 深度实测:虎贲等考 AI 凭真文献 + 实图表稳居毕业论文首选

每到毕业季,“9 款 AI 写论文哪个好” 就成了本硕生必问话题。市面上 AI 论文工具虽多,但能做到文献真实可溯源、图表数据可验证、全流程适配毕业论文、低重复低 AI 痕迹的工具寥寥无几。多数通用 AI 存在文献虚构、内容空洞、无实证能力、格式不规范等硬…...

2026年食品科学论文降AI工具推荐:食品安全和营养研究部分降AI攻略

2026年食品科学论文降AI工具推荐:食品安全和营养研究部分降AI攻略 导师让返修,理由之一是AI率超标。我当时蒙了一下,因为那部分明明是自己写的。 后来搞清楚了:检测看的是统计特征,不是看是否真的是AI写的。用嘎嘎降…...