当前位置: 首页 > article >正文

Tome:基于MCP协议的无代码AI桌面助手,轻松连接本地与云端模型

1. 项目概述Tome一个为普通人打造的魔法AI桌面应用如果你对大型语言模型LLM和AI助手感兴趣但又觉得那些命令行工具、复杂的API配置和JSON文件让人望而却步那么Tome的出现可能就是为你准备的。简单来说Tome是一个桌面应用程序它把调用本地或云端AI模型、连接各种外部工具通过MCP协议这件事变得像使用一个普通的聊天软件一样简单。它的目标很明确让任何人无论是不是开发者都能轻松驾驭AI的能力打造属于自己的“魔法书”。我最初接触Tome是因为厌倦了在多个终端窗口、环境变量和配置文件之间来回切换只为了让我本地的Ollama模型能读取一个网页内容或者查询一下天气。Tome提供了一个一体化的图形界面将模型连接、工具管理、定时任务和聊天交互全部整合在一起。它的核心理念是“本地优先”和“人人可用”这意味着你的数据可以完全留在自己的电脑上同时你无需处理任何代码或复杂的配置。在接下来的内容里我将结合自己深度使用和测试的经验为你拆解Tome的每一个核心功能、背后的原理、具体的实操步骤以及那些官方文档里不会写的“踩坑”心得。2. 核心架构与设计理念拆解要理解Tome为何好用我们需要先理解它解决的几个核心痛点以及它依赖的关键技术栈。2.1 痛点解析为什么我们需要Tome这样的工具在Tome出现之前想要一个功能丰富的本地AI助手通常的路径是这样的首先你需要一个模型运行环境比如Ollama或LM Studio然后如果你想让它拥有联网搜索、读取文件等“超能力”就需要寻找或自己编写相应的插件或工具接着你需要通过某种方式通常是代码或复杂的配置将这些工具“告诉”给AI模型最后你还需要一个前端界面来进行交互。这个过程涉及至少三到四个不同的软件和技术栈对非开发者极不友好。Tome将上述所有环节打包进一个应用。它将模型客户端、MCP客户端和用户界面三者合一。你只需要在图形界面中点选、输入就能完成从模型部署到工具扩展的全过程。这种“No-Code”低代码/无代码的设计理念极大地降低了AI应用的门槛。2.2 技术基石深入理解MCP模型上下文协议Tome所有“魔法”的源泉很大程度上来自于对MCPModel Context Protocol的深度集成。你可以把MCP理解为AI模型的“手”和“眼睛”。传统的LLM只是一个聪明的大脑但它被困在聊天框里无法主动获取外部信息或执行操作。MCP则定义了一套标准协议让LLM能够安全、结构化地调用外部工具。这些工具可以是信息获取工具如网络搜索Fetch、数据库查询、股票行情。系统操作工具如读写本地文件系统、执行命令行指令。第三方API工具如连接Jira、Notion、Scryfall一个万智牌数据库等。Tome内置了一个完整的MCP客户端。这意味着当你为Tome安装了一个MCP服务器比如uvx mcp-server-fetch后你连接的AI模型无论是本地的Qwen2还是云端的Gemini就能在对话中直接使用这个工具。例如你可以直接对AI说“帮我查一下今天Hacker News的头条新闻。” AI会通过MCP协议调用Fetch工具获取网页内容然后基于内容给你总结。这一切在Tome的聊天界面中无缝完成用户感知到的只是一个更“全能”的AI。注意MCP是一个新兴的开放协议由Anthropic等公司推动。它的优势在于标准化使得工具开发者可以编写一次就能被所有兼容MCP的客户端如Tome、Claude Desktop、Cline IDE使用。Tome选择深度集成MCP而非自建一套封闭的插件体系这是一个非常开放且明智的选择保证了其工具生态的丰富性和可持续性。2.3 本地优先与隐私设计Tome强调“本地优先”这不仅仅是营销口号而是贯穿其架构的设计原则。这体现在两个方面模型本地化你可以完全使用本地运行的模型如通过Ollama部署的Qwen2、Llama 3和本地运行的MCP服务器如读取本地文件的服务器。所有计算和数据流都发生在你的设备内部没有任何信息会上传到云端。配置本地化你的所有设置、对话历史除非你使用了云端模型、安装的MCP服务器列表都存储在本地。应用本身也是一个桌面端应用而非网页服务。这种设计对于处理敏感信息、追求极致隐私的用户或者单纯想离线使用的场景来说是至关重要的。它给了用户完全的控制权。3. 从零开始详细安装与初始配置指南让我们抛开理论直接上手。我会以Windows平台为例MacOS步骤类似。3.1 环境准备与基础依赖Tome本身是一个打包好的桌面应用不需要你安装Python、Node.js等环境。但是它的功能依赖于后端服务。操作系统目前支持Windows和macOS。Linux版本已在规划中可以关注GitHub仓库的更新。模型运行时二选一或都备Ollama推荐给初学者这是运行本地模型最简单的方式。前往 ollama.com 下载安装。安装后在命令行执行ollama run qwen2:7b即可拉取并运行一个基础模型。Ollama会在本地启动一个API服务默认端口11434Tome通过这个API与模型通信。LM Studio / Cortex这些是功能更丰富的本地模型GUI管理工具。它们也会在本地暴露一个类似OpenAI的API端点。MCP服务器运行时Tome支持多种方式安装MCP服务器最常见的是通过uvx一个Python脚本运行器。当你首次尝试安装一个uvx开头的MCP服务器时Tome可能会提示你安装UV。按照提示操作即可这个过程通常是自动的。3.2 安装Tome应用本体访问Tome的GitHub Releases页面https://github.com/runebookai/tome/releases。找到最新的版本例如0.9.1。根据你的系统下载对应的安装包Windows:Tome_0.9.1_x64-setup.exemacOS:Tome_0.9.1_aarch64.dmg运行安装程序按照提示完成安装。这个过程和安装任何其他桌面软件没有区别。3.3 首次启动与模型连接安装完成后启动Tome。你会看到一个简洁的界面侧边栏有“聊天”、“MCP”、“任务”等选项。添加模型提供商点击界面左下角的设置齿轮图标或直接在聊天界面根据引导进入“模型”设置。连接Ollama本地模型示例在模型提供商列表中应该能看到预置的“Ollama”选项。点击它。确保你的Ollama正在后台运行你可以打开命令行输入ollama list确认。Tome会自动检测本地的Ollama服务http://localhost:11434。你只需要为这个连接起个名字比如“我的本地Qwen”。在下方模型选择下拉框中你会看到Ollama里已经下载的所有模型。选择你想用的比如qwen2:7b。点击“保存”。现在你就可以在聊天界面的顶部选择这个模型进行对话了。连接Gemini云端模型示例点击“添加提供商”选择“Google Gemini”。你需要一个Gemini API密钥。前往 Google AI Studio 获取通常有免费额度。在Tome的配置页面粘贴API密钥并为其命名如“谷歌Gemini”。选择模型版本如gemini-1.5-flash性价比高gemini-1.5-pro能力更强。保存后即可在聊天中切换使用。实操心得建议同时配置一个本地模型如Qwen2 7B和一个云端模型如Gemini。本地模型响应快、无成本适合日常对话和简单任务云端模型能力更强适合处理复杂的逻辑推理或需要最新知识的任务。Tome可以让你在聊天中无缝切换非常灵活。4. 施展“魔法”的核心MCP服务器的配置与使用连接模型只是让Tome有了“大脑”安装MCP服务器则是为它装配“工具”。4.1 通过Smithery Registry一键安装最简方式Tome集成了 Smithery.ai 注册中心这是一个MCP服务器的“应用商店”。在Tome侧边栏点击“MCP”标签页。你会看到“可用的服务器”列表这里就是从Smithery获取的精选服务器。找到你感兴趣的服务器例如“Fetch”网页内容抓取工具点击旁边的“安装”按钮。Tome会自动处理所有依赖和配置。安装完成后该服务器的开关会变为开启状态。现在回到聊天界面对你连接的AI模型说“使用Fetch工具获取Hacker News的首页标题。” 模型就会调用该工具并返回结果。4.2 手动安装MCP服务器高级玩法并非所有服务器都在Smithery上。有时你需要从GitHub或其他地方找到服务器地址手动安装。在“MCP”标签页点击右上角的“添加服务器”。你需要填写“服务器命令”。这是最关键的一步格式取决于服务器的类型uvx 类型这是最常见的形式。例如安装Fetch服务器就输入uvx mcp-server-fetch。Tome会在后台自动处理uvx环境的安装。npm 类型如果服务器是一个npm包例如npx modelcontextprotocol/server-filesystem直接输入这行命令即可。本地脚本类型如果你自己写了一个MCP服务器脚本Python或Node.js你需要输入启动这个脚本的命令例如python /path/to/your/server.py。为这个服务器起一个名字然后保存。注意事项手动安装时务必确保你的系统环境变量如Python、Node.js、UV的路径已被正确配置以便Tome能在其进程环境中找到这些命令。如果安装失败首先检查命令在系统的终端CMD或PowerShell中是否能直接运行。4.3 必备MCP服务器推荐与场景根据我的使用经验以下几类MCP服务器能极大提升Tome的实用性服务器名称安装命令/来源核心功能使用场景Fetchuvx mcp-server-fetch或 Smithery抓取网页内容让AI总结文章、查看最新资讯、获取网页数据。Filesystemnpx modelcontextprotocol/server-filesystem读写本地文件需配置路径让AI分析你的日志文件、总结文档内容、整理文件夹。注意务必将其权限限制在特定子目录切勿开放整个根目录以防误操作。Timeuvx mcp-server-time或 Smithery获取当前时间、日期用于需要时间上下文的对话或任务调度。ScryfallSmithery 直接安装查询万智牌卡牌数据库卡牌游戏玩家必备查询卡牌效果、价格、组合。Brave SearchSmithery 直接安装使用Brave搜索引擎进行网络搜索获取比Fetch更实时、更全面的网络信息。需要申请免费API Key。安装多个服务器后你可以在“MCP”标签页管理它们随时开启或关闭。AI模型在对话时会自动知晓所有已开启的工具并在合适的时机调用它们。5. 超越聊天定时任务与实验室功能Tome不仅仅是一个聊天界面它正在向一个自动化AI工作流平台演进。5.1 设置定时任务Scheduled Tasks这是将AI从被动应答变为主动助手的核心功能。你可以让AI在特定时间自动执行任务。点击侧边栏的“任务”标签页。点击“创建新任务”。配置任务名称例如“每日新闻简报”。调度选择“每天”或“每小时”并设置具体时间如每天上午9点。模型选择执行此任务使用的模型提供商。提示词这是任务的核心。你需要编写一个清晰的提示词告诉AI要做什么。例如“使用Fetch工具获取BBC新闻科技版块的头条并用中文总结成三段每段不超过100字。”MCP服务器勾选此任务需要用到的服务器如Fetch。保存任务。Tome会在后台运行到点自动执行并将结果记录在任务历史中。你可以随时查看历史记录。实操心得定时任务的提示词编写是关键。它需要足够具体、可执行并且考虑到AI可能遇到的异常如网站无法访问。建议先在聊天窗口中手动测试几次你的提示词确保AI能稳定输出你想要的结果再将其设置为定时任务。5.2 实验室功能Telegram Relay远程控制你的AI这是一个非常酷的“实验室”功能需要在设置中手动开启。进入设置找到“实验室”或“实验性功能”选项开启“Telegram Relay”。Tome会生成一个唯一的Bot Token和一个Chat ID。在Telegram中搜索BotFather创建一个新的机器人并获取其API Token。将Telegram Bot的Token填入Tome的配置中。将你的Telegram Chat ID配置到Tome中如何获取Chat IDTome界面会有指引。配置完成后你就可以在Telegram里直接和你创建的Bot聊天了。你发给Bot的消息会被转发到你Tome里设置的默认模型进行处理并且模型可以调用你已开启的MCP工具回复也会传回Telegram。这个功能的意义在于你可以在手机上随时随地通过Telegram使用你电脑上那个配备了强大本地工具链的AI助手。比如在回家路上发消息“让AI用Filesystem工具看看我桌面上的‘购物清单.txt’然后通过Fetch工具查查里面某样商品的最新评测。”6. 高级配置与性能调优要让Tome运行得更顺畅、更符合你的需求可以关注以下几个配置点。6.1 模型参数调优在模型配置页面除了选择模型你还可以调整两个关键参数上下文窗口这决定了AI能记住多长的对话历史。本地小模型如7B参数的上下文通常较短4K-8K调得过高可能导致响应变慢或内存溢出。云端大模型如Gemini 1.5 Pro支持超长上下文百万级别可以根据需要调高用于处理长文档。温度控制AI输出的随机性。值越低如0.1输出越确定、保守值越高如0.8输出越有创造性、多样化。对于需要事实准确性的任务如总结、数据分析建议使用较低温度0.1-0.3对于创意写作、头脑风暴可以调高到0.7以上。6.2 多模型提供商与回退策略你可以添加多个同类型的提供商。例如添加两个不同的Ollama端点一个运行快速的小模型qwen2:7b一个运行能力强的大模型llama3.1:70b。在聊天时可以手动切换。目前Tome尚未提供自动的“回退”策略即当一个模型失败时自动尝试另一个但手动管理多个模型已经能应对大部分场景。6.3 资源管理与问题排查内存占用运行本地大模型如70B参数会消耗大量内存。确保你的电脑有足够的物理内存RAM。在任务管理器中监控Tome和Ollama/LM Studio进程的内存使用情况。网络问题如果你使用云端模型Gemini/OpenAI确保网络通畅。Tome本身没有内置代理设置如果你的网络环境需要可能需要配置系统级的代理。日志查看当遇到MCP服务器安装失败或模型连接问题时首先检查Tome的设置界面是否有错误提示。更详细的日志通常需要查看应用运行的标准输出对于桌面应用这可能需要通过命令行启动Tome来查看或者在其配置目录中查找日志文件。7. 常见问题与故障排除实录在实际使用中你可能会遇到以下问题。这里记录了我的排查和解决方法。7.1 MCP服务器安装失败问题现象在Tome中添加MCP服务器时长时间卡在“安装中”最后提示失败。排查思路检查命令有效性首先将你填写的“服务器命令”如uvx mcp-server-fetch复制到系统的命令行终端Windows的CMD或PowerShellmacOS的Terminal中直接运行。如果这里就报错例如提示“uvx不是内部或外部命令”说明你的系统环境没有安装所需的运行时。安装运行时对于uvx通常Tome会尝试自动安装。如果失败可以手动安装在终端运行pip install uvx或者按照uvx官方文档安装。对于npx它是Node.js自带的请确保已安装Node.js。网络问题安装uvx包或npm包可能需要从网络下载。检查网络连接特别是如果你使用了网络代理确保命令行终端也能使用相同的代理设置。7.2 模型连接成功但无响应问题现象模型显示已连接但发送消息后长时间无回复或提示超时。排查思路检查模型服务状态对于Ollama打开终端运行ollama list确认模型是否在运行或运行ollama run 模型名测试模型本身是否正常。检查API端点对于手动添加的OpenAI兼容端点如LM Studio确认URL和端口是否正确。LM Studio默认的API地址通常是http://localhost:1234/v1。查看模型负载本地模型可能因为硬件资源不足CPU/内存占满而响应极其缓慢。打开任务管理器观察资源使用率。提示词过长如果你一次性发送了很长的上下文比如粘贴了一整篇文章而模型的上下文处理能力有限可能导致卡死。尝试缩短输入。7.3 工具调用不生效问题现象已经安装了Fetch服务器并开启但让AI“搜索xxx”或“获取xxx网页”时AI回答它做不到或没有相关工具。排查思路确认工具已启用在“MCP”标签页确认对应服务器的开关是绿色的“开启”状态。检查模型能力并非所有模型都擅长使用工具。确保你使用的模型是较新的、经过工具调用微调的版本。例如Ollama中的qwen2:7b-instruct比qwen2:7b通常有更好的指令遵循和工具使用能力。Gemini、GPT-4等云端模型在此方面表现优异。使用明确的指令AI需要明确的指令来触发工具。尝试更直接的提示如“请使用Fetch工具访问news.ycombinator.com并获取首页排名第一的故事标题和链接。” 而不是模糊的“看看Hacker News上有什么新闻”。查看聊天界面在Tome的聊天界面中当AI调用工具时会有特殊的消息气泡显示“调用工具XXX…”。如果根本没出现这个气泡说明AI没有理解要调用工具如果出现了但失败了会显示错误信息根据错误信息进一步排查。7.4 定时任务未执行问题现象设置了定时任务但到了时间没有运行也没有历史记录。排查思路确保Tome在运行定时任务需要Tome应用程序在后台运行。检查它是否被关闭或最小化到系统托盘。检查系统权限特别是macOS可能需要授予Tome“自动化”或后台运行权限。检查系统设置中的隐私与安全性。检查任务配置确认调度时间设置正确是AM还是PM确认提示词和模型配置无误。可以手动点击任务旁边的“立即运行”按钮测试任务本身是否正常。查看系统时区确保你的系统时区设置正确。经过一段时间的深度使用Tome给我的感觉更像是一个“AI能力聚合器”和“平民化桥梁”。它没有去发明新的模型或协议而是将现有的、强大的但分散的技术本地LLM、MCP用极其友好的方式整合起来送到了普通用户面前。它的价值不在于技术的颠覆性而在于体验的革新性。对于想要探索AI自动化、又不想深陷技术细节的爱好者来说Tome是目前我能找到的最优雅的解决方案之一。当然作为技术预览版它偶尔会有一些小毛病比如界面卡顿、某些边缘配置不够直观但开发团队在Discord上的响应非常积极社区的反馈也在快速推动产品迭代。如果你对构建个人AI助手感兴趣我强烈建议你现在就下载Tome从连接一个Ollama模型和安装Fetch服务器开始亲自体验一下这种“施展魔法”的感觉。

相关文章:

Tome:基于MCP协议的无代码AI桌面助手,轻松连接本地与云端模型

1. 项目概述:Tome,一个为普通人打造的魔法AI桌面应用 如果你对大型语言模型(LLM)和AI助手感兴趣,但又觉得那些命令行工具、复杂的API配置和JSON文件让人望而却步,那么Tome的出现,可能就是为你准…...

告别WSL安装玄学:从0x80072f78到0x800701bc,一次搞懂Windows 11下的完整避坑指南

从0x80072f78到0x800701bc:Windows 11下WSL完整避坑手册 每次在Windows 11上安装WSL时,那些神秘的错误代码是否让你抓狂?0x80072f78、0x800701bc...它们像是一道道密码,阻挡着你进入Linux开发环境的大门。作为长期在Windows和Linu…...

避坑指南:SuperMap iServer 跨版本升级时,备份恢复配置文件必须注意的3个细节

SuperMap iServer跨版本升级:配置文件备份恢复的三大关键策略 当技术团队准备将SuperMap iServer从10i版本升级到11i时,最容易被忽视却最致命的环节莫过于配置文件的处理。许多工程师习惯性地将旧版本备份包直接恢复到新环境,结果遭遇服务启动…...

Win11精简版系统缺失画图工具?三步教你从微软商店找回(附快速启动技巧)

Win11精简版系统缺失画图工具?三步教你从微软商店找回(附快速启动技巧) 不少追求系统流畅性的用户会选择安装第三方精简版Win11系统,却在需要基础功能时发现连画图工具都找不到了。这并非微软的疏漏,而是精简版系统为了…...

为什么2025年是AI Agent的爆发元年?

目录为什么2025年是AI Agent的爆发元年?引言:一个被产业界共同认定的“元年”一、产业共识:为什么“元年”不是一个空洞的口号?1.1 从“千模大战”到“智能体竞速”1.2 权威机构的一致判断1.3 市场规模的数据佐证二、技术底座&…...

03-从Chat到Act-Agent行动闭环的产品心理学拆解

从Chat到Act:Agent行动闭环的产品心理学拆解系列一:AI Agent GAP模型 | 第3篇(深度型) 从"一问一答"到"自主行动",拆解Agent行动闭环背后的行为设计逻辑。本文你将获得 🔄 Agent行动闭…...

基于Nuxt 4与Shadcn/ui的现代全栈仪表板开发实战

1. 项目概述:一个现代全栈仪表板的技术栈选择 最近在做一个内部管理后台,需要快速搭建一个既美观又功能齐全的仪表板。我的核心需求很明确:开发要快、代码质量要高、用户体验要好,并且要能轻松应对多语言场景。在评估了市面上各种…...

基于Telegram的AI聊天机器人SirChatalot部署与多模态功能配置指南

1. 项目概述:打造你的专属AI骑士 如果你厌倦了那些功能单一、反应迟钝的聊天机器人,想拥有一个既能深度对话、又能看图说话、甚至能帮你搜索网页和生成图片的“全能型”AI伙伴,那么 SirChatalot 这个项目绝对值得你投入时间。它本质上是一个…...

RHClaw红队工具集:模块化CLI框架提升安全研究效率

1. 项目概述与核心价值最近在和一些做安全研究的朋友交流时,发现一个挺有意思的现象:大家手里或多或少都攒了一些自己写的、或者从开源社区淘来的“小工具”。这些工具往往功能单一但极其锋利,比如一个专门用来解析特定协议头的脚本&#xff…...

契约驱动开发:用AI守护代码质量,告别技术债

1. 项目概述:从“技术债”到“可持续开发”的范式转变 如果你和我一样,长期在技术一线摸爬滚打,那你一定对“技术债”这个词又爱又恨。爱它,是因为它给了我们一个快速交付的借口;恨它,是因为它总在项目最脆…...

ReRAM与PCM存内计算:突破冯·诺依曼瓶颈,赋能边缘AI与类脑计算

1. 从冯诺依曼瓶颈到存内计算:一场芯片架构的范式转移最近几年,但凡关注芯片和人工智能领域的朋友,肯定对“存内计算”这个词不陌生。它听起来像是一个技术术语,但背后直指一个困扰了我们半个多世纪的计算机根本性难题&#xff1a…...

插入排序,选择排序,希尔排序

一、插入排序从头开始依次选取一个元素,和他前面的数比较,先把值存为 c ,这样就不用交换值了若比前面的元素大,就让 qq 1的位置的值改为前面的数,qq 往前移一位若前面的数小,就把 qq 1的位置的值改为cvo…...

【译】《心悟内核:先懂设计,再读代码》—1、内核并非进程,而是整个系统本身

作者:Moon Hee Lee 原文: The Kernel in the Mind 心悟内核:先懂设计,再读代码——内核并非进程,而是整个系统本身Linux 内核既不是普通进程、守护进程,也不是应用程序。它是一套常驻内存的高特权运行环境&#xff0c…...

2025_NIPS_Unveiling Induction Heads: Provable Training Dynamics and Feature Learning in Transformers

文章核心内容与创新点总结 核心内容 本文聚焦Transformer在n元马尔可夫链数据上的上下文学习(ICL)机制,通过分析含相对位置嵌入、多头softmax注意力和归一化前馈网络的双层Transformer训练动态,证明梯度流会收敛到实现“广义归纳头”(GIH)机制的极限模型。该模型中,第…...

QT 导出可执行 EXE 文件的方法

简介 本文分为两部分 第一部分导出exe文件,但是此文件需要很多其他文件支持,就是在一个文件夹里,里面不仅有exe,还有很多支持文件,使用的时候需要拷贝整个文件夹。 第二部分是单独导出exe,实际是在第一部…...

36种阀体混线全自动智能分拣方案|3D视觉+机器人柔性制造实践

一、项目背景与行业痛点在高端流体控制设备制造领域,阀体、阀盖的精密分拣是保障产品质量的核心环节。随着工业设备向小型化、高精度方向发展,客户对阀体组件加工误差的控制要求持续提升,传统生产模式面临显著瓶颈:1. 人工分拣效率…...

羽毛球每天必练的基本功:拉吊四方球战术、吊杀结合战术

文章目录 引言 I 羽毛球每天必练的基本功 1. 握拍练习 2. 挥拍动作 3. 步法训练 4. 球感练习 5. 发力技巧 II 发力 正确发力 握拍 反手发力 III 羽毛球单打战术 拉吊四方球战术 直线变斜线战术 重复落点战术 吊杀结合战术 追身球压制战术 防守反击战术 引言 打球前必须热身(活…...

【必收藏】2026年大模型学习全指南|小白程序员入门捷径,抓住百万年薪红利

2026年的AI行业,机遇早已从风口走向实锤——应用层依旧是那片肉眼可见的黄金赛道!从大厂技术布局到招聘市场风向标,所有信号都在一致指向:大模型应用开发,已然成为程序员突破职业瓶颈、实现薪资跃升的核心赛道。 字节跳…...

3.C语言笔记:指针数组、函数

1.指针数组有若干相同类型的指针变量构成的数组。数据类型 * 数组名[大小] 指针数组:int * p[3];数组指针:int (*p)[4] a;int a 10,b 20, c 20; int * p[3]; p[0] &a; p[1] &b; p[2] &c;printf("a-b-c:%d %d %d\n",…...

17 LCD1602模块——显示屏

一、51单片机模块二、LCD1602模块三、模块间的连接单片机P2端口:P2_5~P2_7单片机P0端口:P0_0~P0_7四、LCD1602芯片1、参数和引脚这里只需要了解单片机的引脚功能,也可以大致看一眼,后面在编码显示功能的时候,也会做详细…...

【典型电路设计】直流400V转24V电源设计,超宽输入高压非隔离Buck降压芯片XD308H,包含芯片介绍以及参考电路详细解读

一款工业场景中非常实用的高压降压芯片——XD308H,这款芯片主打超宽输入、外围极简、低成本,特别适合400VDC母线、220VAC整流后等高压场景,实现小功率非隔离降压(如24V、12V),广泛应用于工业控制、BMS、智能…...

Get-cookies.txt-LOCALLY:浏览器Cookie本地导出终极指南

Get-cookies.txt-LOCALLY:浏览器Cookie本地导出终极指南 【免费下载链接】Get-cookies.txt-LOCALLY Get cookies.txt, NEVER send information outside. 项目地址: https://gitcode.com/gh_mirrors/ge/Get-cookies.txt-LOCALLY 在数字时代,浏览器…...

如何自定义 LangGraph 的 State Schema 以支持复杂业务数据流

标题选项 《LangGraph实战进阶:自定义State Schema搞定复杂业务数据流全指南》 《从零搞定LangGraph复杂工作流:State Schema自定义从原理到落地》 《告别简单Demo:自定义LangGraph State Schema支撑企业级复杂数据流》 《LangGraph核心原理解锁:State Schema自定义设计思路…...

TrollInstallerX终极指南:深入解析iOS 14.0-16.6.1越狱工具部署技术

TrollInstallerX终极指南:深入解析iOS 14.0-16.6.1越狱工具部署技术 【免费下载链接】TrollInstallerX A TrollStore installer for iOS 14.0 - 16.6.1 项目地址: https://gitcode.com/gh_mirrors/tr/TrollInstallerX TrollInstallerX是一款专为iOS 14.0到16…...

AI Agent与DevOps融合:自动化开发与运维的智能体工具链

AI Agent与DevOps深度融合:打造全链路自动化开发运维的智能体工具链实践指南 摘要/引言 你有没有遇到过这些DevOps场景的痛点:凌晨3点收到线上告警,爬起来翻几百条日志排查根因花了40分钟,业务已经损失了几十万;团队100个开发每天提交200+MR,DevOps团队光做代码审查就要…...

如何用AEUX在30分钟内完成Figma到After Effects的无缝动画转换

如何用AEUX在30分钟内完成Figma到After Effects的无缝动画转换 【免费下载链接】AEUX Editable After Effects layers from Sketch artboards 项目地址: https://gitcode.com/gh_mirrors/ae/AEUX 你有没有经历过这样的场景?在Figma中精心设计了完美的UI界面&…...

产品经理必备:Gemini3.1Pro高效撰写需求文档指南

做产品经理的人,大多都写过需求文档,但真正让人头疼的,往往不是“写”,而是“写得清楚”。 需求背景要交代,目标要明确,流程要完整,边界条件要说明,异常情况还不能漏,最后…...

Gemini3.1Pro轻松搞定文献综述难题

对很多学生党来说,论文开题最难的地方,不是选题本身,而是文献综述。 题目定下来了,方向也有了,但一翻到文献就发现:资料很多、观点很多、结构却很乱,不知道怎么归纳,更不知道怎么写得…...

Gemini3.1Pro:商业分析框架搭建神器

做咨询的人都知道,真正难的从来不是“找到信息”,而是“把信息组织成框架”。 很多商业分析问题看起来复杂,本质上都是在有限时间内,把零散材料整理成一个能支撑判断的逻辑结构。如果你经常做行业分析、竞品分析、市场调研、经营诊…...

Gemini3.1Pro解决新媒体小编选题难痛点

做新媒体的小编,最怕的不是写,而是“今天写什么”。 选题总是来得很急,热点总是变化很快,账号又要求持续更新,结果就是:内容压力大、时间不够用、框架搭不出来。如果你每天都在追热点、找角度、写标题、搭结…...