当前位置: 首页 > article >正文

OpenClaw + Ollama 本地大模型实战:零成本、零隐私泄露的 AI Agent

OpenClaw Ollama 本地大模型实战零成本、零隐私泄露的 AI Agent 不想把代码和私人数据发送到云端不想每月为 API 付费本文带你从零搭建完全本地化的 OpenClaw Agent——用 Ollama 运行开源大模型所有数据永远不出 localhost 文章目录为什么要本地化成本、隐私、离线三大动机架构总览OpenClaw Ollama 如何协作硬件要求你的机器能跑什么模型模型选择指南2026 年本地模型排行安装 Ollama方式一ollama launch openclaw最简一键方案方式二手动配置 openclaw.json完全控制上下文窗口本地模型最大的坑实战用本地模型让 Agent 分析私有数据调优技巧让本地模型不再啰嗦混合架构本地 云端鱼和熊掌兼得常见问题排查1. 为什么要本地化成本、隐私、离线三大动机现代 AI 工作流通常依赖云端 API。但如果你想要一个完全运行在自己机器上、保护数据隐私、并且支持多步骤 Agent 工作流的系统呢三大动机动机说明零成本OpenClaw Ollama 最大的优势就是成本——唯一的花费是运行电脑的电费。零隐私泄露所有数据集、文档和中间输出都保留在设备上不会传输到外部服务。✈️离线可用一旦通过 Ollama 拉取了模型整个系统无需互联网即可工作。如果你想用 OpenClaw 做个人助手——管理提醒、日历、账单——但又不愿把这些私人数据交给公共 LLM那么本地私有 LLM 就是必要条件。云端方案 vs 本地方案 ☁️ 云端 APIAnthropic / OpenAI ├── ✅ 模型质量最强 ├── ✅ 零配置 ├── ❌ 每月 $20-200 API 费用 ├── ❌ 你的代码和数据发送到远程服务器 └── ❌ 断网就不能用 本地 Ollama ├── ✅ 完全免费 ├── ✅ 数据永远不出 localhost ├── ✅ 断网也能用 ├── ⚠️ 需要一定硬件GPU 或 Apple Silicon └── ⚠️ 模型质量比云端旗舰模型低一档如果你处理的是法律文档、医疗信息、客户数据——本地推理可以完全规避跨境数据传输、第三方处理协议等合规问题。你的代码你的 Prompt你的机器。2. 架构总览OpenClaw Ollama 如何协作在本地 Ollama 模型上运行 OpenClaw会将你的系统变成一个自包含的 AI 环境。整个工作流——包括推理、文件访问和产物生成——都在你的机器上运行而不是发送 Prompt 和数据到外部 API。┌─────────────────────────────────────────────────────────┐ │ 你的本地机器 │ │ │ │ ┌───────────────┐ ┌──────────────────┐ │ │ │ OpenClaw │ ◄─────► │ Ollama │ │ │ │ Gateway │ HTTP │ localhost:11434 │ │ │ │ │ │ │ │ │ │ 执行引擎 │ │ 推理引擎 │ │ │ │ · Shell 命令 │ │ · Qwen3.5 │ │ │ │ · 文件读写 │ │ · GLM-4.7 │ │ │ │ · 浏览器控制 │ │ · gpt-oss │ │ │ │ · MCP 工具 │ │ · DeepSeek-R1 │ │ │ └───────────────┘ └──────────────────┘ │ │ ▲ │ │ │ WebSocket / HTTP │ │ ┌──────┴───────┐ │ │ │ 聊天界面 │ TUI / Telegram / Discord / Web │ │ └──────────────┘ │ │ │ │ ❌ 没有任何数据离开这台机器 │ └─────────────────────────────────────────────────────────┘OpenClaw 作为执行引擎Ollama 提供推理层。 简单说OpenClaw负责手和脚——执行 Shell 命令、读写文件、调用 MCP 工具Ollama负责大脑——理解指令、推理规划、生成代码Ollama 的baseUrl指向本地 API 端点http://localhost:11434/v1而api: openai-completions设置启用了 OpenAI 兼容通信。3. 硬件要求你的机器能跑什么模型本地模型质量与模型大小成正比模型大小又与硬件需求成正比。硬件分级表GPU 显存 / 统一内存可运行的模型体验等级8 GBQwen3.5:9b、Qwen3.5:35b-a3bMoE仅激活 3B⭐⭐ 能用简单任务16 GBQwen3.5:35b-a3b流畅、Qwen3.5:27bQ4 量化⭐⭐⭐ 好用24 GBQwen3.5:27b Q4_K_M 约 17GB在 4090 上绰绰有余⭐⭐⭐⭐ 很好用32 GBMacQwen3.5:27bQ8、Qwen3.5:122b-a10bQ4⭐⭐⭐⭐ 非常好48 GBQwen3.5:122b-a10b 全面匹配 GPT-5 mini工具调用超 30%⭐⭐⭐⭐⭐ 接近云端最低要求至少 16GB RAM推荐 32GB 以获得更好体验如果没有 GPU模型会在 CPU 上运行速度慢 5-10 倍。GPU 支持能显著加速推理NVIDIA GPU 支持最好AMD GPU 可以工作但性能较低OpenClaw 需要 Node.js 22 或更新版本速度参考模型硬件速度Qwen3.5:35b-a3bRTX 5090194 tok/s比一年前多 7B 模型还快Qwen3.5:27bRTX A6000~20 tok/sQwen3.5:35b-a3bRTX 3090112 tok/sMoE 每次仅激活 3B 参数速度参考线50 tok/s 实时对话流畅25-50 tok/s 绝大多数任务可接受20 tok/s 能用但需要耐心。4. 模型选择指南2026 年本地模型排行自 2026 年 3 月 Ollama 成为 OpenClaw 官方 Provider 以来配置比以往更简单了。 而 Qwen3.5 系列改变了本地硬件能做到什么程度的计算公式。 推荐排行Tier 1首选推荐2026 年 3 月模型参数SWE-bench特点适合硬件Qwen3.5:27b27BDense72.4%匹配 GPT-5 Mini唯一的 Dense 模型每个 token 每个参数都参与计算推理密度最高24GB GPUQwen3.5:35b-a3b35BMoE激活 3B69.2%MoE 架构35B 总参数仅激活 3B小模型速度 大模型知识8-16GB GPUQwen3.5:122b-a10b122BMoE激活 10B~72%工具调用 BFCL-V4 得分 72.2超过 GPT-5 mini55.5整整 30%48GBTier 2其他可选模型说明GLM-4.7-Flash30B MoE仅激活 3B 参数/token原生工具调用支持。中文能力出色gpt-oss:20b20B 参数编码能力强社区热门DeepSeek-R1:32b推理能力出色中文优秀Qwen3.5:9b在多个基准上匹配或超过了 GPT-OSS-120B13 倍大的模型效率惊人选择决策树你的 GPU 显存是多少 │ ├── 8 GB → Qwen3.5:35b-a3bMoE激活仅 3B │ 或 Qwen3.5:9b纯小模型 │ ├── 16 GB → Qwen3.5:35b-a3b流畅 │ 或 Qwen3.5:27b Q4 量化紧凑但可用 │ ├── 24 GB → Qwen3.5:27b Q4_K_M首选最佳编码质量 │ 或 GLM-4.7-Flash中文场景优先 │ ├── 32-48 GBMac 统一内存 │ → Qwen3.5:27b Q8最高量化质量 │ 或 Qwen3.5:122b-a10b Q4 │ └── 48 GB → Qwen3.5:122b-a10b全面匹配 GPT-5 mini⚠️重要提示在模型配置中设置reasoning: false并优先使用 Qwen3.5 系列——它们处理 OpenClaw 的工具调用格式比 Mistral 或老版 Llama 更可靠。建议至少 14B 模型8B 模型可能会出现工具调用幻觉或丢失上下文。5. 安装 OllamaOllama 是运行本地模型最简单的方式。安装它拉取模型你就有了一个运行在 localhost 的 OpenAI 兼容 API。5.1 安装# Linux一键安装curl-fsSLhttps://ollama.com/install.sh|sh# macOS / Windows# 从 https://ollama.com 下载安装包# 验证安装ollama--version5.2 拉取模型根据你的硬件选择模型# 根据你的硬件选一个 # 最佳质量需要 24GB 显存ollama pull qwen3.5:27b# 速度优先8-16GB 即可运行ollama pull qwen3.5:35b-a3b# 轻量级8GB 显存即可ollama pull qwen3.5:9b# 中文场景优秀ollama pull glm-4.7-flash# 编码热门选择ollama pull gpt-oss:20b5.3 快速测试# 先用交互模式确认模型正常工作ollama run qwen3.5:27b# 输入一个简单问题测试CtrlD 退出# 测试 HTTP APIcurlhttp://localhost:11434/api/tags# 如果返回 JSON说明 Ollama 正在运行 更重要的是在把模型交给 Agent 之前先在 Ollama 的对话界面测试模型的推理能力。毕竟如果一个模型连基本对话都无法正常处理就没必要浪费时间配置到 Agent 里。6. 方式一ollama launch openclaw最简一键方案这是目前最省事的方式大多数人可以在 5-10 分钟内搞定。6.1 一键启动# 确保已拉取模型ollama pull qwen3.5:27b# 一键启动Ollama 自动配置 OpenClaw 并启动 Gatewayollama launch openclaw这个命令会自动完成配置 Provider → 安装 Gateway 守护进程 → 将你的模型设为 Primary → 在后台启动 Gateway 并打开 OpenClaw TUI 界面。6.2 指定模型启动# 如果你拉了多个模型可以指定用哪个ollama launch openclaw--modelqwen3.5:27b# 或用 GLMollama launch openclaw--modelglm-4.7-flash6.3 还可以直接用 onboard 命令也可以通过openclaw onboard --auth-choice ollama来启用集成。# 先安装 OpenClawnpminstall-gopenclaw/cli# 然后在 onboard 向导中选择 Ollamaopenclaw onboard# → 在 Provider 选择界面选 Local model (Ollama)ollama launch openclawvs 手动配置如果你只是想快速跑起来用 launch 就够了。如果你需要精确控制模型参数、多模型路由、自定义上下文窗口请看下面的手动配置方式。7. 方式二手动配置 openclaw.json完全控制这是我更推荐的方式因为它让你完全理解每个配置项的含义出了问题也知道从哪里排查。7.1 配置文件位置# OpenClaw 配置文件路径~/.openclaw/openclaw.json7.2 完整配置模板Qwen3.5:27b编辑~/.openclaw/openclaw.json{ // 模型配置 models: { providers: { ollama: { baseUrl: http://localhost:11434/v1, apiKey: ollama-local, // 必填但 Ollama 会忽略此值 api: openai-completions, // ⚠️ 必须用这个不要写 anthropic models: [ { id: qwen3.5:27b, // 必须和 ollama list 显示的名字完全一致 name: Qwen3.5 27B, reasoning: false, // ⚠️ 本地模型建议设为 false input: [text], cost: { // 本地运行全部为零 input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 131072, // 128K需要足够显存支撑 maxTokens: 8192 } ] } } }, // Agent 默认设置 agents: { defaults: { model: { primary: ollama/qwen3.5:27b // 格式provider名/模型id }, maxConcurrent: 4, subagents: { maxConcurrent: 8 } } }, // 工具配置隐私优先 tools: { web: { search: { enabled: false // 禁用搜索 不发出任何外部请求 }, fetch: { enabled: true // 保留有限的资源获取能力 } } } }通过将 primary model 设为ollama/qwen3.5:27b每个 Agent 任务——包括解释 Prompt、生成摘要、推理数据——都会自动路由到本地 Ollama 模型无需任何外部 API 调用。工具配置中禁用了网页搜索以确保隐私和防止外发请求。7.3 配置中的关键字段解释字段值为什么apiopenai-completions对于 Ollama及其他非 OpenAI Provider必须使用openai-completionsapiKeyollama-local必填字段但 Ollama 实际上会忽略此值reasoningfalseQwen3.5 模型在reasoning: false下处理 OpenClaw 工具调用更可靠contextWindow131072Qwen3.5 模型 128K 是 24GB 显存硬件上的安全默认值cost全部0由于模型在本地运行所有成本值都设为零model.primaryollama/qwen3.5:27bprovider名/模型id格式provider 名对应 providers 下的键名7.4 兼容性字段部分模型需要对于非标准 ProvidersupportsDeveloperRole会自动检测为 false。但 Ollama 未被明确列入 isNonStandard 检查中所以 compat 值有时需要显式设置。如果你遇到系统 Prompt 不加载等奇怪问题试试添加compat字段{ id: qwen3.5:27b, reasoning: false, contextWindow: 131072, maxTokens: 8192, compat: { supportsDeveloperRole: false, supportsReasoningEffort: false } }7.5 验证配置# 检查 Ollama 正在运行curlhttp://localhost:11434/api/tags# → 应返回包含你模型的 JSON# 确认模型名称与配置一致ollama list# NAME ID SIZE MODIFIED# qwen3.5:27b abc123... 17 GB 2 hours ago# 检查 OpenClaw 配置openclaw doctor⚠️模型名称必须与你实际拉取的完全一致。运行ollama list查看可用模型的准确名称。8. 上下文窗口本地模型最大的坑这是本地部署中最容易踩的坑值得专门拿出来讲。问题是什么OpenClaw 默认的上下文窗口可能很小约 8K这甚至无法处理 OpenClaw 自己的 .md 指令文件。建议运行至少 32K token 上下文长度的模型。更多信息请参阅 Ollama 的上下文长度文档。不同显存下的建议显存建议 contextWindow说明8 GB8192-16384刚够基本对话16 GB3276816GB 显存建议设为 32768 以避免质量下降24 GB131072(128K)Qwen3.5 模型 128K 是 24GB 硬件上的安全默认值48 GB262144(256K)可以处理大型代码库和长对话如何调整 Ollama 的上下文长度方法一在 Ollama 中创建自定义模型Modelfile# 创建 ModelfilecatModelfileEOF FROM qwen3.5:27b PARAMETER num_ctx 32768 EOF# 创建自定义模型ollama create qwen3.5-27b-32k-fModelfile# 在 openclaw.json 中使用新的模型名# id: qwen3.5-27b-32k方法二通过环境变量设置# 设置 Ollama 的默认上下文长度OLLAMA_NUM_CTX32768ollama serve方法三在 openclaw.json 的 contextWindow 字段中设置{ id: qwen3.5:27b, contextWindow: 32768 // OpenClaw 会据此管理上下文 }上下文窗口过小的典型症状Agent 忘记之前的对话内容系统 Prompt 不加载模型回复不像 OpenClaw Agent工具调用返回格式错误Context Compaction 频繁触发丢失关键信息9. 实战用本地模型让 Agent 分析私有数据这个模式特别适合私有数据分析、内部工具以及任何数据必须保留在设备上的工作流。9.1 场景分析本地 CSV 销售数据假设你有一个包含客户订单的 CSV 文件数据中有真实姓名、手机号、地址——绝对不能上传到云端。9.2 启动 Gateway# 终端 1确保 Ollama 在运行ollama serve# 终端 2启动 OpenClaw Gatewayopenclaw gateway--forceGateway 作为系统的执行层处理 Agent 请求、加载工作区 Skill、调用本地工具并将推理调用路由到 Ollama 模型。9.3 与 Agent 对话 你分析 ~/data/sales_2025.csv告诉我哪个月销售最好 哪个产品利润最高生成一个摘要报告保存到 ~/reports/ Agent本地 Qwen3.5 推理 [调用 exec 工具] head -n 5 ~/data/sales_2025.csv [读取文件] 分析 CSV 结构... [调用 exec 工具] python3 analyze.py ~/data/sales_2025.csv 分析完成 - 销售最好的月份11月双十一效应总额 ¥2,847,000 - 利润最高的产品智能手表 Pro毛利率 42.3% - 报告已保存到 ~/reports/sales_summary_2025.md 整个过程中没有任何数据离开你的机器 一个用户请求可以触发多步骤工作流而不仅仅是单次文本回复。9.4 实战效果对比OpenClaw 调用文件系统 Skill 遍历目录 → Ollama 读取代码并进行逻辑推理 → OpenClaw 组织推理结果并写入新文件。这比把代码片段复制到 ChatGPT 效率高得多而且数据永远不会离开本地机器。10. 调优技巧让本地模型不再啰嗦本地模型有一个通病太啰嗦。它们喜欢过度解释、输出原始 JSON、描述工具而不是直接使用工具。10.1 在 SOUL.md 中添加简洁规则本地模型经常过度解释并且喜欢输出 JSON。你可以在 SOUL.md 和模型系统 Prompt 两个地方进行调整。在你的项目根目录或~/.openclaw/下创建SOUL.md## 简洁规则 保持简洁。 不要输出 Skill 文档原文。 不要打印原始 JSON 响应。 不要详细解释你将要做什么。 任务成功后用一句话确认即可。这不会让每个模型都变得简洁但效果比很多人预期的要好。10.2 通过 Modelfile 烘烤行为有些模型会描述工具而不是直接使用它们或者每个操作都要请求许可。自定义 Ollama Modelfile 可以将直接使用工具的行为烘焙进模型。catModelfileEOF FROM qwen3.5:27b PARAMETER num_ctx 32768 SYSTEM 你是一个高效的助手。 - 直接执行任务不要先解释你要做什么 - 使用工具时直接调用不要描述工具 - 完成后用一句话总结结果 - 不要输出原始 JSON EOFollama create qwen3.5-27b-agent-fModelfile10.3 速度优化如果你在 27B 模型上获得低于 20 tok/s 的速度检查是否有其他进程在使用 GPU。关闭任何运行 WebGL 或视频的浏览器标签页。在 Mac 上活动监视器 → GPU 历史记录 会显示什么在竞争统一内存。11. 混合架构本地 云端鱼和熊掌兼得我的实际建议很简单使用混合设置。让本地处理低成本任务让云端模型处理需要深度思考的部分和长文写作。OpenClaw 支持 per-agent 和 per-task 路由你不会被锁定在单一 Provider。11.1 三级模型路由配置// ~/.openclaw/openclaw.json — 混合架构 { models: { providers: { // 云端处理复杂任务 anthropic: { apiKey: ${ANTHROPIC_API_KEY}, models: [ { id: claude-sonnet-4-20250514, reasoning: true, contextWindow: 200000, maxTokens: 8192 } ] }, // 本地处理日常任务 ollama: { baseUrl: http://localhost:11434/v1, apiKey: ollama-local, api: openai-completions, models: [ { id: qwen3.5:27b, reasoning: false, contextWindow: 131072, maxTokens: 8192, cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 } } ] } } }, agents: { defaults: { model: { primary: ollama/qwen3.5:27b // 日常用本地免费 // 需要高质量时手动切换到 anthropic/claude-sonnet-4-20250514 } } } }11.2 什么时候用本地什么时候用云端┌───────────────────────────────────────────────────────┐ │ 任务路由决策 │ │ │ │ 本地 Ollama免费 隐私 │ │ ├── 日志清理和摘要 │ │ ├── JSON 格式化 │ │ ├── 消息路由 │ │ ├── 简单代码生成CRUD、脚手架 │ │ ├── 文件操作和简单重构 │ │ ├── 包含敏感数据的任务客户信息、财务数据 │ │ └── 定时任务每日报告等不想按 token 付费 │ │ │ │ ☁️ 云端 Claude/GPT质量优先 │ │ ├── 复杂架构设计 │ │ ├── 多文件大型重构 │ │ ├── 复杂 Bug 调试 │ │ ├── 长文写作和深度分析 │ │ └── 需要最新知识的任务 │ └───────────────────────────────────────────────────────┘ 保留一个本地 Ollama 模型作为终极后备应对离线工作和云端宕机的情况。12. 常见问题排查问题 1Ollama 没有运行# 检查 Ollama 是否在运行curlhttp://localhost:11434/api/tags# 如果没有运行手动启动ollama serve# 如果是远程机器需要绑定到所有接口OLLAMA_HOST0.0.0.0 ollama serve问题 2API Key 错误如果看到No API key found for provider ollama错误需要通过openclaw agents add配置 Agent 的认证。确保openclaw.json中有apiKey: ollama-local字段。问题 3工具调用失败模型输出 JSON 而不是调用工具工具调用失败时在模型配置中设置reasoning: false并优先使用 Qwen3.5 模型。如果工具调用仍然出问题将 Ollama 更新到最新版本。官方 Provider 集成修复了多个边缘情况。# 更新 Ollama 到最新版curl-fsSLhttps://ollama.com/install.sh|sh问题 4模型回复不像 OpenClaw Agent不使用工具自称是通用 AI这通常是因为系统 Prompt 没有在冷启动时加载。模式表现为工具调用正常但系统 Prompt 不加载。解决方案添加compat字段compat: { supportsDeveloperRole: false, supportsReasoningEffort: false }问题 5Memory 搜索返回不相关结果如果 memory_search 返回无关结果原因可能是 memory 目录下有旧数据embedding 索引是基于过期数据构建的。# 删除旧的 memory 文件rm~/.openclaw/workspace-{agent}/memory/旧日期.mdrm~/.openclaw/memory/{agent}.sqlite# SQLite 索引会自动从现有 memory 文件重建问题 6速度太慢# 检查是否有其他进程占用 GPUnvidia-smi# NVIDIA GPU# 或 Mac: 活动监视器 → GPU 历史记录# 试试更小的模型ollama pull qwen3.5:35b-a3b# MoE速度快很多# 减小上下文窗口# contextWindow: 32768 而不是 131072问题 7ollama launch报 unknown command如果看到Error: unknown command launch for ollama说明 Ollama 版本太旧更新后即可正常使用。# 更新 Ollamacurl-fsSLhttps://ollama.com/install.sh|sh 速查卡一页纸看完所有配置# 安装 curl-fsSLhttps://ollama.com/install.sh|sh# 安装 Ollamanpminstall-gopenclaw/cli# 安装 OpenClawollama pull qwen3.5:27b# 拉取模型# 一键启动最快方式 ollama launch openclaw# 自动配置并启动# 或手动配置完全控制 # 编辑 ~/.openclaw/openclaw.json# 参考本文第 7 节的完整配置模板# 验证 ollama list# 确认模型名称curlhttp://localhost:11434/api/tags# 确认 Ollama 运行中openclaw doctor# 检查 OpenClaw 配置# 调试 ollama serve# 手动启动 Ollamaopenclaw gateway--force# 强制启动 Gateway# 自定义模型上下文窗口 echoFROM qwen3.5:27b\nPARAMETER num_ctx 32768Modelfile ollama create qwen-32k-fModelfile// 最小可用配置 // ~/.openclaw/openclaw.json { models: { providers: { ollama: { baseUrl: http://localhost:11434/v1, apiKey: ollama-local, api: openai-completions, models: [{ id: qwen3.5:27b, // ← 改成你的模型名 reasoning: false, contextWindow: 32768, // ← 根据显存调整 maxTokens: 8192, cost: {input:0,output:0,cacheRead:0,cacheWrite:0} }] } } }, agents: { defaults: { model: { primary: ollama/qwen3.5:27b } } } } 参考资料Ollama 官方 OpenClaw 集成文档Ollama 官方博客OpenClawOpenClaw Ollama Provider 配置文档Qwen3.5 模型系列 — Ollama 库Qwen3.5 HuggingFace 模型页OpenClaw 本地部署指南haimaker.ai — 2026 年 OpenClaw 最佳本地模型排行DataCamp — OpenClaw Ollama 构建本地数据分析师如果觉得有帮助欢迎点赞 收藏 ⭐ 关注 有问题评论区见本文为原创内容转载请注明出处。

相关文章:

OpenClaw + Ollama 本地大模型实战:零成本、零隐私泄露的 AI Agent

OpenClaw Ollama 本地大模型实战:零成本、零隐私泄露的 AI Agent 🚀 不想把代码和私人数据发送到云端?不想每月为 API 付费?本文带你从零搭建完全本地化的 OpenClaw Agent——用 Ollama 运行开源大模型,所有数据永远不…...

保姆级教程:用Python脚本自动同步通达信财务数据到本地(附多线程下载优化)

Python自动化实战:构建高可靠的通达信财务数据同步系统 在量化投资领域,及时准确的财务数据是基本面分析的基石。通达信作为国内主流金融数据提供商,其专业财务数据被众多机构和个人投资者广泛使用。然而,手动下载、解压、更新这些…...

Altium Designer 16常见原理图与PCB设计报错解析及实战解决方案

1. Altium Designer 16常见原理图报错解析与实战解决 刚接触Altium Designer 16的朋友们,肯定都遇到过各种让人头疼的报错提示。这些报错看似复杂,其实只要掌握了背后的原理,解决起来并不难。今天我就结合自己多年使用AD16的经验,…...

ofa_image-caption行业应用:建筑图纸图像→结构化英文描述用于BIM建模

OFA图像描述在建筑行业的应用:从图纸到结构化英文描述 1. 项目背景与行业痛点 建筑行业的朋友们,你们有没有遇到过这样的场景? 拿到一张复杂的建筑图纸,需要把它转换成文字描述,然后手动输入到BIM软件里。这个过程不…...

分享5个打工人必备Skill,PPT到BGM龙虾全包了

分享几个能写PPT 、能操作Excel 和文档等等职场专属的SKILL1. Skywork PPT — PPT 颜值终于能见人了之前不是没让龙虾做过 PPT。能做,但样式你懂的——内容不错,排版像模板堆出来的,拿去汇报多少有点尴尬。 Skywork PPT 不一样的地方&#xf…...

如果 Gemini 在 agentic coding 时代没有建立优势,这会是一次严重的战略失误

如果 Gemini 在 agentic coding 时代没有建立优势,这会是一次严重的战略失误 导语 最近一段时间,一个相当值得玩味的现象是:不少用户对 Antigravity 这类偏 GUI、偏“展示型”的 AI 体验并不满意,但与此同时,Gemini CL…...

Docker 容器中 PyOpenGL 离屏渲染的避坑实践

1. 为什么要在Docker里折腾PyOpenGL离屏渲染? 第一次在Docker容器里配置PyOpenGL离屏渲染时,我对着满屏的GLXPlatform报错差点崩溃。后来才明白,这其实是计算机图形学领域一个经典场景——当你的代码需要渲染3D图形,但运行环境根本…...

2026年AI+营销应用品牌格局观察:全链路数智化升级

2026年,AI营销应用已从单点智能工具升级为覆盖营销全链路的数智化解决方案,成为企业数字化转型的核心基础设施之一。数智化不仅重构营销流程,更推动企业实现从客户触达到交易转化的全场景协同,而AI营销应用正成为企业提升营销效率…...

pythonocc 安装不上或者编码问题或者加载不上

安装不上或者编码问题安装这个: conda install -c conda-forge git m2w64-gcc m2w64-make cmake -ypython 3.9...

OpenClaw多任务队列:GLM-4.7-Flash并行处理优化技巧

OpenClaw多任务队列:GLM-4.7-Flash并行处理优化技巧 1. 为什么需要任务队列优化 上个月在处理一批市场调研报告时,我遇到了一个典型问题:需要让OpenClaw自动分析300多份PDF文件,提取关键数据并生成结构化表格。最初我直接让Agen…...

微信小程序蓝牙开发避坑指南:正确使用wx.getConnectedBluetoothDevices获取已连接设备

微信小程序蓝牙开发实战:深度解析wx.getConnectedBluetoothDevices的正确使用姿势 在智能硬件与移动互联网深度融合的今天,微信小程序作为轻量级应用平台,其蓝牙功能已成为连接物理设备与数字服务的重要桥梁。然而,许多开发者在初…...

基于NSGA-II算法的水电-光伏多能互补协调优化调度MATLAB代码

MATLAB代码:基于NSGA-II的水电-光伏多能互补协调优化调度 关键词:NSGA-II算法 多目标优化 水电-光伏多能互补 参考文档:《自写文档》基本复现; 仿真平台:MATLAB 主要内容:代码主要做的是基于NSGA-II的水…...

ERPNext生产环境维护实战:5个必须掌握的日常运维技巧

ERPNext生产环境维护实战:5个必须掌握的日常运维技巧 当ERPNext从测试环境走向生产环境时,运维工作的复杂度会呈指数级增长。作为一款集成了财务、供应链、人力资源等核心业务模块的企业级系统,任何服务中断都可能直接影响企业运营。本文将分…...

解锁论文新境界:书匠策AI——文献综述的“智能魔法棒”

在学术的广袤天地里,论文写作宛如一场探索未知的奇妙旅程,而文献综述则是这场旅程中至关重要的“导航图”。它不仅能帮助我们梳理前人的研究成果,还能为我们的研究指明方向,避免走弯路。然而,撰写文献综述却常常让许多…...

从Gauss-Seidel到SOR:一个松弛因子如何让有限元分析提速3倍(Fortran代码解析)

从Gauss-Seidel到SOR:有限元分析中的超松弛加速技术 在计算力学领域,线性方程组的求解效率直接决定了有限元分析的工程实用性。当处理大型稀疏矩阵时,传统的高斯-赛德尔(Gauss-Seidel)迭代法常因收敛速度不足而难以满足…...

Uncaught (in promise) Error: A listener indicated an asynchronous response by returning true, but th

前端异步通信异常排查:因超时时间设置过短导致消息通道提前关闭 在前端开发中,异步通信(尤其是接口请求)是核心环节,而超时时间的配置看似是小细节,却可能引发难以定位的异常。本文记录一次典型的异步通信异…...

C#串口通信实战:如何用Chart控件高效绘制实时波形(附性能优化技巧)

C#串口通信实战:如何用Chart控件高效绘制实时波形(附性能优化技巧) 在工业自动化、医疗设备监控和物联网数据采集等领域,实时波形显示是开发者经常需要实现的核心功能。传统的数据表格展示方式难以直观反映数据变化趋势&#xff0…...

避坑指南:DolphinScheduler定时任务配置的隐藏陷阱与Quartz Misfire策略调优

DolphinScheduler定时任务配置的隐藏陷阱与Quartz Misfire策略深度调优 在分布式任务调度系统中,DolphinScheduler凭借其可视化工作流编排和易用性赢得了广泛认可。然而,当系统遇到异常情况时,默认配置下的补偿机制可能成为一把双刃剑——原本…...

手把手教你用whip/whep协议实现ZLMediaKit的WebRTC拉流(2024最新版)

2024实战指南:基于WHIP/WHEP协议构建ZLMediaKit的WebRTC低延迟拉流系统 在实时音视频领域,WebRTC技术凭借其低延迟和点对点通信优势已成为行业标配。而WHIP/WHEP协议的出现,进一步简化了WebRTC与传统媒体服务器的集成流程。本文将深入探讨如何…...

MySQL数据库课程设计:GLM-OCR识别结果的数据存储与检索系统

MySQL数据库课程设计:GLM-OCR识别结果的数据存储与检索系统 1. 引言 想象一下,你的公司或实验室每天都会通过GLM-OCR这样的工具处理成千上万张文档图片——可能是合同、发票、报告或者历史档案。图片一张张被识别,文字内容被提取出来&#…...

【2026年最新600套毕设项目分享】基于SpringBoot的校园信息共享系统(14200)

有需要的同学,源代码和配套文档领取,加文章最下方的名片哦 一、项目演示 项目演示视频 二、资料介绍 完整源代码(前后端源代码SQL脚本)配套文档(LWPPT开题报告/任务书)远程调试控屏包运行一键启动项目&…...

从图像金字塔到特征点匹配:图解SIFT算法为什么能抗缩放旋转

从图像金字塔到特征点匹配:图解SIFT算法为什么能抗缩放旋转 在计算机视觉领域,特征点匹配一直是核心难题之一。想象一下,当我们需要在两幅不同角度、不同距离拍摄的照片中识别同一物体时,传统基于像素比对的算法往往束手无策。这正…...

【cesium】深入解析Cesium交互中点击事件的三种实现方式

1. Cesium点击事件基础概念 在三维地理信息系统中,用户交互是核心功能之一。Cesium作为领先的WebGL地球引擎,提供了多种处理用户点击事件的方式。理解这些方法的差异,就像学习开车时掌握不同档位的使用场景 - 虽然都能让车移动,但…...

告别魔改焦虑:用BiFPN升级你的YOLOv8,一份保姆级配置文件详解

告别魔改焦虑:用BiFPN升级你的YOLOv8,一份保姆级配置文件详解 在目标检测领域,YOLOv8凭借其出色的性能和易用性赢得了广泛关注。但对于追求更高精度的开发者来说,原生的特征金字塔网络(FPN)结构可能成为性能…...

入行AI Agent工程师!这份学习路径太全了(附保姆级资源)

关于入行Agent,我的第一个直觉是:别再去刷那些教你怎么调 API 的视频了,那纯属浪费 Token 额度。如果指望靠 LangChain 连连看就能面过 P7,那大厂面试官也就白混了。 在 AGI 浪潮下,很多 6-8 年经验的后端开发者都会产…...

深求·墨鉴(DeepSeek-OCR-2)OCR服务SLA保障:99.9%可用性部署架构

深求墨鉴(DeepSeek-OCR-2)OCR服务SLA保障:99.9%可用性部署架构 1. 引言:当艺术遇见工程,如何让水墨之美永不褪色? 想象一下,你正在使用「深求墨鉴」将一本珍贵的古籍数字化。宣纸色的界面、朱…...

LightOnOCR-2-1B效果展示:手写数字+印刷体单位混合(如“¥3,250.00”)精准识别

LightOnOCR-2-1B效果展示:手写数字印刷体单位混合(如"3,250.00")精准识别 1. 模型简介 LightOnOCR-2-1B是一个拥有10亿参数的多语言OCR识别模型,专门针对复杂场景下的文字识别进行了深度优化。这个模型最突出的特点是…...

海南省乡镇GIS数据分析实战:从SHP文件到空间统计的完整流程

海南省乡镇GIS数据分析实战:从SHP文件到空间统计的完整流程 在数字化浪潮席卷各行各业的今天,地理信息系统(GIS)技术已成为区域规划、资源管理和决策支持的重要工具。对于海南省这样一个兼具热带农业、旅游业和海洋经济的特殊地理…...

图像篡改数据集下载:COVERAGE、CASIA

下载地址COVERAGE图像篡改数据集国内搬运(仅篡改后,没有原始图像):https://gitcode.com/open-source-toolkit/b2779.git官方地址(给出了网盘):https://github.com/wenbihan/coverageCASIAhttps:…...

Qwen3-32B-Chat部署教程:WebUI地址http://localhost:8000登录与多用户会话管理配置

Qwen3-32B-Chat部署教程:WebUI地址http://localhost:8000登录与多用户会话管理配置 1. 环境准备与快速部署 Qwen3-32B-Chat是一款强大的对话模型,本教程将指导您完成私有化部署过程。我们提供的镜像已经针对RTX 4090D 24GB显存显卡和CUDA 12.4环境进行…...