当前位置: 首页 > article >正文

Ollama/vLLM/llama.cpp实测

Ollama 每月有 5200 万次下载。它是每个教程都推荐的工具。我用了它六个月认为它已经生产就绪并将其部署给了 40 名内部用户。响应时间从 3 秒变成了超过一分钟。请求开始超时。模型没问题。是 Ollama 的问题。那次事故让我深入研究逐一测试了三大本地 LLM 推理工具Ollama、vLLM 和 llama.cpp。我发现的结果彻底改变了我对本地 AI 部署的看法——而赢家并不是我预期的那个。这里有一个令人不安的事实所有人都推荐给初学者的工具也是会在生产环境中让你颜面尽失的工具。而那些复杂的工具实际上并不难设置。1、为什么本地 LLM 部署突然变得重要数据最能说明问题。llama.cpp 在 2026 年 3 月达到了 100,000 个 GitHub 星——比 PyTorch 或 TensorFlow 达到同一里程碑还要快。这是一个三年前还不存在的项目。Ollama 在 2026 年第一季度达到了每月 5200 万次下载比 2023 年第一季度的 100,000 次增长了 520 倍。Hugging Face 上超过 60% 的量化模型现在以 GGUF 格式发布这是 llama.cpp 创建的标准。这已不再是爱好者在笔记本电脑上运行聊天机器人的事了。团队正在部署本地 LLM 来控制成本、避免数据离开他们的网络并获得云 API 无法匹配的亚 100 毫秒推理速度。工具之间的差异不仅仅是开发者体验——而是你的应用能否在真实用户面前存活下来。2、我测试了什么以及怎么测的我在相同的硬件上一块 24GB VRAM 的 RTX 4090 和一台 64GB RAM 的工作站使用相同的模型运行每个工具Llama 4 Scout 17B Instruct。我测试了三种场景任务 1 — 单用户简单的提示补全测量每秒 token 数和延迟。任务 2 — 10 个并发用户模拟 10 个同时进行的 API 请求测量每个工具如何处理中等负载。任务 3 — 50 个并发用户生产场景。多个用户同时访问同一个端点测量总吞吐量和 p95 延迟这个数字决定了你的应用是感觉慢还是感觉坏了。每个测试我运行了五次并取平均值。没有挑选数据。3、工具 1Ollama — 深受喜爱的初学者工具Ollama 就其本身而言非常出色。安装二进制文件运行ollama pull llama4-scout:17b不到两分钟你就有了一个运行中的模型提供 OpenAI 兼容的 API。不需要 Python 环境不需要依赖管理不需要 GPU 配置。它就是能工作。# Install (macOS) brew install ollama # Install (Linux) curl -fsSL https://ollama.com/install.sh | sh # Pull and run Llama 4 Scout ollama pull llama4-scout:17b # Start the API server (port 11434) ollama serve # Test it curl http://localhost:11434/api/generate \ -d {model:llama4-scout:17b,prompt:What is PagedAttention?}单用户性能很扎实每秒 40-50 个 token稳定、可预测。内存占用令人印象深刻地精简1.8GB 的系统 RAM 开销而 vLLM 是 4.6GBCPU 使用率在正常条件下保持在 8% 左右。然后我运行了并发负载测试。在 10 个并发用户下Ollama 管理了大约每秒 148 个总 token。可以接受。在 50 个并发用户下它在大约 155 tokens/sec 处达到了平台——几乎没有改善——而 p95 延迟猛增到 18.4 秒。P99 达到了 24.7 秒。这不是一个 bug。这是架构问题。Ollama 通过先进先出队列处理请求。每个新请求必须等待当前请求完成后才能开始。随着并发量的增加等待时间会累积。第三个用户在用户一和用户二还在响应中到达时必须等待他们两个才能看到一个 token。第 40 个用户要等待用户 1 到 39 全部完成。GitHub issue #9054 明确说明了这一点“Ollama Does Not Utilize Multiple Instances of the Same Model for Parallel Processing.” 这个 issue 从 2024 年就开着了。截至 2026 年 4 月这仍然是其基本设计。对于在本地测试的开发者完美。对于五个人的团队共享一个内部工具开始力不从心了。对于 40 个人它就崩了。Ollama 结论出色的开发者体验生产环境并发上限约为 5 个用户。4、工具 2vLLM — 生产级主力vLLM 出自 UC Berkeley 的 Sky Computing Lab。核心创新是 PagedAttention值得深入了解因为它解释了为什么 vLLM 在负载下的表现如此不同。传统的 LLM 服务会为每个请求的 KV cache 预分配一块连续的 GPU 内存——模型用来跟踪上下文的工作内存。问题在于这块内存必须根据最大可能的序列长度预先保留即使实际请求很短。在简单的实现中GPU 内存浪费高达 60-80%。这限制了你能同时服务的请求数量。PagedAttention 借鉴了操作系统的虚拟内存概念。它不是用一大块连续内存而是将 KV cache 分成小的固定大小页面可以存储在 GPU 内存的任何位置。页面按需分配——随着序列增长而分配请求完成时立即释放。GPU 内存浪费降到 4% 以下这意味着在同一硬件上可以容纳更多的并发请求。再加上连续批处理——vLLM 将新请求吸收到当前处理批次中而不需要等待之前的请求完成——你就得到了一个与 Ollama 基于队列的方法根本不同的并发模型。# Install vLLM pip install vllm # Start serving Llama 4 Scout (OpenAI-compatible API on port 8000) python -m vllm.entrypoints.openai.api_server \ --model meta-llama/Llama-4-Scout-17B-Instruct \ --gpu-memory-utilization 0.9 \ --max-model-len 32768 # Test with the OpenAI client (drop-in replacement) from openai import OpenAI client OpenAI(base_urlhttp://localhost:8000/v1, api_keytoken-here) response client.chat.completions.create( modelmeta-llama/Llama-4-Scout-17B-Instruct, messages[{role: user, content: Explain PagedAttention in 2 sentences.}] )50 个并发用户时的性能数据每秒 920 个总 tokenp95 延迟 2.1 秒p99 延迟 2.8 秒。在 128 个并发连接下vLLM 保持了 100% 的请求成功率。在相同的负载下Ollama 的队列已经崩溃。缺点确实存在vLLM 需要具有 CUDA 计算能力 7.0 或更高的 NVIDIA GPUV100、T4、A10、A100、H100。不支持 Mac。不支持纯 CPU 部署。大多数模型也不支持开箱即用的 ROCm。设置更加复杂——需要 Python 3.12、CUDA 工具包、适当的环境配置。在单张 H100 80GB 上以 BF16 运行 Llama 3.1 8BvLLM 能提供大约每秒 12,500 个 token。这完全是另一个级别的性能。谁在信任 vLLMAmazon Rufus服务 2.5 亿客户、LinkedIn、Roblox每周 40 亿 token、Mistral AI 和 Stripe。当 Hugging Face 在 2025 年 12 月弃用 TGIText Generation Inference时他们官方推荐 vLLM 作为继任者。vLLM 结论在 NVIDIA 硬件上进行生产级多用户服务的唯一真正选择。5、工具 3llama.cpp — 可移植性冠军llama.cpp 是三者中最被误解的。人们认为它是难的选项或爱好者的选项。两者都不准确。由 Georgi Gerganov 于 2023 年 3 月创建纯 C/C无外部依赖llama.cpp 已经成为生态系统其余部分构建的基础设施。Ollama 在底层运行的就是 llama.cpp。Hugging Face 上超过 60% 的量化模型以 GGUF 格式发布——这是 llama.cpp 创建的文件标准。该项目拥有 100,000 个 GitHub 星2026 年 3 月、700 多名贡献者仅 2025 年就处理了 3,800 个 pull request。关键能力llama.cpp 可以在任何地方运行。纯 CPU、NVIDIA CUDA、Apple Metal、AMD ROCm、用于边缘设备的 Vulkan。没有其他工具有这样的覆盖范围。在 Apple Silicon 上带有 Metal 后端的 llama.cpp 在 M3/M4 机器上能提供每秒 50-100 个 token——比同一硬件上的 Ollama 更好因为你可以直接调整 Metal 卸载。-ngl 99标志告诉 llama.cpp 将所有 transformer 层卸载到 Metal GPU。# macOS (Homebrew — builds with Metal automatically) brew install llama.cpp # Or build from source with Metal (for latest features) git clone https://github.com/ggml-org/llama.cpp cd llama.cpp cmake -B build -DGGML_METALON -DGGML_NATIVEON cmake --build build -j$(nproc) # Download a GGUF model (Q5_K_M best quality/size tradeoff) huggingface-cli download bartowski/Llama-4-Scout-17B-Instruct-GGUF \ Llama-4-Scout-17B-Instruct-Q5_K_M.gguf # Start the built-in HTTP server ./build/bin/llama-server \ -m Llama-4-Scout-17B-Instruct-Q5_K_M.gguf \ -ngl 99 \ --port 8080 \ --ctx-size 32768 # The server exposes an OpenAI-compatible /v1/chat/completions endpoint2026 年新功能llama.cpp 添加了 MCP 客户端支持通过 Model Context Protocol 直接在 llama-server 中调用工具、通过基于 RPC 的分布式推理实现多 GPU以及自动处理新模型结构化输出的自动解析器。2026 年 3 月版本还实现了跨 GPU 上下文的并行模型加载。其局限性与 Ollama 使用它的原因相同GGUF 量化牺牲了一些精度以换取可移植性。Q5_K_M5 位量化非常出色但它不是 BF16。在并发负载下llama.cpp 有类似 Ollama 的基于队列的限制——它是为单用户或低并发工作负载设计的而不是高吞吐量服务。llama.cpp 结论Apple Silicon、边缘设备、纯 CPU 部署以及想要最大控制权的开发者的最佳选择。6、正面对比数据 Tool | Setup | Single TPS | 50-User TPS | p95 (50u) Ollama | 5 min | 40-50 | ~155 | 18.4s vLLM | 20 min | 485 | 920 | 2.1s llama.cpp | 10 min | 50-100* | N/A** | N/A** * Apple Silicon with Metal; NVIDIA CUDA performance varies by GPU ** llama.cpp llama-server handles concurrent requests but with similar queue-based limitations to Ollama under high load吞吐量差距是真实存在的。在 50 个并发用户下vLLM 每秒提供的 token 数是 Ollama 的 5.9 倍。在 128 个并发连接下vLLM 保持了 100% 的成功率而 Ollama 失败了。在高负载下Ollama 的 TTFR首次响应时间达到 3,200ms而 vLLM 保持在 145ms。7、你应该实际使用哪一个使用 Ollama 的场景你正在进行原型设计或个人实验最多有 1-5 个用户访问 API你使用 Mac 并想要最快的方式运行模型你在教授 AI 概念或构建内部演示或者你想要零维护开销。使用 vLLM 的场景你需要服务 10 个以上的并发用户你在 NVIDIA GPU 硬件上运行A10、A100、H100、RTX 系列你在构建生产级 API 端点每个 token 的成本很重要每个 GPU 上更多用户 更低成本或者你需要规模上的 100% 请求可靠性。使用 llama.cpp 的场景你在 Apple Silicon 上并想要最大性能Metal 后端优于 Ollama 的抽象层你在部署到边缘设备或纯 CPU 服务器你需要在消费级硬件上以最少的 RAM 运行量化模型或者你想对量化级别、上下文大小和 GPU 层分布进行原始控制。零成本硬件方案如果你使用的是 16GB 以上统一内存的 M3/M4 Mac直接使用 llama.cpp 是最佳选择。Ollama 在底层使用 llama.cpp但增加了开销。用 Metal 构建 llama.cpp 可以让你直接访问同一引擎并有更好的控制。8、5 分钟快速上手方案 A — Ollama最快# macOS brew install ollama ollama pull llama4-scout:17b ollama serve # Linux curl -fsSL https://ollama.com/install.sh | sh ollama pull llama4-scout:17b ollama serve # API live at http://localhost:11434方案 B — vLLM生产环境pip install vllm python -m vllm.entrypoints.openai.api_server \ --model meta-llama/Llama-4-Scout-17B-Instruct \ --gpu-memory-utilization 0.9 # API live at http://localhost:8000 # Fully OpenAI SDK compatible — just change the base_url方案 C — llama.cpp完全控制# macOS with Homebrew (pre-built with Metal) brew install llama.cpp # Download GGUF model pip install huggingface_hub huggingface-cli download bartowski/Llama-4-Scout-17B-Instruct-GGUF \ Llama-4-Scout-17B-Instruct-Q5_K_M.gguf # Start server llama-server -m Llama-4-Scout-17B-Instruct-Q5_K_M.gguf -ngl 99 --port 8080 # API live at http://localhost:8080三者都暴露 OpenAI 兼容的端点。在它们之间切换只需更改一行OpenAI 客户端中的base_url。你的应用代码保持不变。9、值得听取的批评vLLM 并不完美。SGLang——一个较新的推理框架——在 H100 GPU 上通过一种叫做 RadixAttention 的技术跨请求缓存共享计算在吞吐量上比 vLLM 高出 29%16,200 vs 12,500 tokens/sec。对于多轮聊天机器人和 RAG 管道SGLang 值得评估。vLLM 的核心团队会告诉你他们的优势在于广度更多的硬件支持、更大的贡献者基础以及与不常见模型架构更好的兼容性。llama.cpp 的 GGUF 量化会引入精度下降。Q4_K_M4 位通常用于对话是可以的但在精确数值推理和编码方面会明显退化。对于生产使用Q5_K_M 或 Q8_0 值得多占用一些 VRAM。在 vLLM 中运行全精度模型与在 llama.cpp 中运行量化模型不是一个公平的比较——你是在用精度换取可移植性。Ollama 不会消失。它的路线图包括改进并发处理团队也已经承认了生产环境的局限。对于 95% 的用例——单用户或低并发的个人工具——它仍然是从想法到运行模型的最快路径。10、结束语经过三周的测试这是我得到的结论你开始的工具不应该就是你上线的工具。Ollama 在开发者体验上无可争议地获胜。用它来构建、测试和迭代。当有超过五个人同时使用你的应用时切换到 vLLM。性能差距不是理论上的——在 50 个并发用户下这是 2 秒响应和 18 秒响应之间的差别。llama.cpp 是无名英雄Ollama 构建于其上的运行时60% 量化模型使用的格式让本地 AI 变得实用的项目。如果你使用的是 Apple Silicon 或需要在 CPU 上运行从这里开始而不是把它当作高级选项。我个人的设置在 MacBook 上使用带 Metal 的 llama.cpp 进行实验在云 GPU 上的 Docker 中运行 vLLM 用于有实际用户的场景。切换只花了一个下午。原文链接Ollama/vLLM/llama.cpp实测 - 汇智网

相关文章:

Ollama/vLLM/llama.cpp实测

Ollama 每月有 5200 万次下载。它是每个教程都推荐的工具。我用了它六个月,认为它已经"生产就绪",并将其部署给了 40 名内部用户。响应时间从 3 秒变成了超过一分钟。请求开始超时。模型没问题。是 Ollama 的问题。 那次事故让我深入研究&…...

Vector-CANoe实战:CAPL编程与NetWork Node节点深度配置指南

1. 初识NetWork Node:从Client到Server的角色转变 第一次接触CANoe时,大多数人都会把它当作一个简单的Client端工具,用来收发CAN报文、解析信号。但当我真正参与到一个整车网络测试项目时,才发现NetWork Node的强大之处。那次我们…...

从RS485接线到云平台配置:一个真实车间电表数据采集上云的完整踩坑记录

从RS485接线到云平台配置:一个真实车间电表数据采集上云的完整踩坑记录 车间里那台老旧的电力监测系统终于到了必须升级的时候。作为项目负责人,我原本以为将电表数据通过RS485采集再上传到云平台是件标准化的"流水线作业",直到真正…...

层次分析法(AHP)翻车实录:我踩过的3个大坑和避坑指南

层次分析法实战避坑指南:从理论到落地的关键挑战 去年数学建模竞赛中,我们团队在决策分析环节选择了层次分析法(AHP),结果却因为几个隐蔽的陷阱导致最终结果与实际情况严重偏离。这次经历让我深刻认识到——掌握AHP的基…...

STM32F103C8T6新手避坑指南:用软件IIC读取MPU6050原始数据,串口打印实测(附完整工程)

STM32F103C8T6实战:从零搭建MPU6050数据采集系统(附避坑手册) 第一次接触STM32和MPU6050传感器时,我花了整整三天时间才让串口成功输出数据。期间经历了IIC通信失败、数据异常、硬件连接错误等各种问题。本文将分享这些实战经验&a…...

手把手教你用SM2246EN主控板DIY 512G MLC固态U盘(含避坑指南)

从零打造高性能MLC固态U盘:SM2246EN主控实战全攻略 在数字存储需求爆炸式增长的今天,传统U盘的速度和容量已难以满足技术爱好者的需求。市面上的消费级U盘大多采用TLC或QLC闪存,虽然价格亲民,但性能和耐用性往往不尽如人意。而采用…...

ESP8266开发环境二选一:手把手教你用AiThinkerIDE_V1.5.2玩转NonOS与RTOS SDK(含项目迁移避坑指南)

ESP8266开发环境二选一:手把手教你用AiThinkerIDE_V1.5.2玩转NonOS与RTOS SDK(含项目迁移避坑指南) 对于嵌入式开发者来说,选择合适的开发环境往往能事半功倍。ESP8266作为一款经典的Wi-Fi芯片,提供了NonOS和RTOS两种S…...

《基于 FSet 的现代 Common Lisp》1.0 版发布,涵盖多方面使用指南

下一篇 [介绍与必要的宣传](Introduction-and-Obligatory-Hype.html) [目录][[索引](Index.html "索引")] 文档版本及许可信息 本文档版本为 1.0(适用于 FSet v2.4.2),© 2026 Scott L. Burson 所有。它遵循 [知识共享署名 - 非…...

Spring WebFlux实战:手把手教你用WebFilter和Context实现全局请求日志追踪

Spring WebFlux全链路追踪实战:从WebFilter到Reactor Context的深度设计 当微服务架构遇上响应式编程,传统的日志追踪方案突然变得力不从心。想象这样一个场景:某电商平台大促期间,订单服务突然出现异常响应延迟,但当你…...

Proteus 8.9安装Arduino仿真库?保姆级图文指南带你绕过‘隐藏文件夹’这个大坑

Proteus 8.9安装Arduino仿真库全流程指南:从隐藏文件夹到实战验证 在电子设计自动化领域,Proteus与Arduino的结合为创客和教育工作者提供了强大的仿真能力。然而,许多用户在第一步——安装Arduino元件库时就遭遇了"隐藏文件夹"这个…...

Windows Cleaner:3个步骤彻底解决C盘爆红问题,让电脑重获新生

Windows Cleaner:3个步骤彻底解决C盘爆红问题,让电脑重获新生 【免费下载链接】WindowsCleaner Windows Cleaner——专治C盘爆红及各种不服! 项目地址: https://gitcode.com/gh_mirrors/wi/WindowsCleaner 你的电脑是否经常出现C盘爆红…...

GitHub中文界面终极解决方案:3分钟告别英文困扰

GitHub中文界面终极解决方案:3分钟告别英文困扰 【免费下载链接】github-chinese GitHub 汉化插件,GitHub 中文化界面。 (GitHub Translation To Chinese) 项目地址: https://gitcode.com/gh_mirrors/gi/github-chinese 你是否曾经面对GitHub满屏…...

【5G MAC】从RAR到MAC-CE:深入解析NR Timing Advance的同步机制与演进

1. 什么是NR Timing Advance? 想象一下你参加一场线上会议,如果所有人都在不同时间说话,主持人根本听不清谁在说什么。5G网络中的上行同步也是类似的道理——当多个终端设备(UE)同时向基站(gNB)…...

从零搭建RGBD视觉开发环境:Python+OpenNI2驱动奥比中光深度相机实战

1. 环境准备:驱动与OpenNI2安装 刚拿到奥比中光RGBD相机时,我就像拿到新玩具的孩子一样兴奋。但很快发现,要让这个"玩具"真正动起来,得先搞定驱动和开发环境。这里分享我踩过坑之后总结的可靠安装方法。 首先需要下载官…...

Proxmox Mail Gateway (PMG) 部署与基础安全配置实战

1. 为什么企业需要Proxmox Mail Gateway? 最近不少企业的IT部门都在头疼一个问题:Windows Server 2022和Microsoft 365相继取消了SMTP服务,但企业内部的各种系统告警、业务通知又必须通过邮件发送。我去年就遇到过这种情况,当时公…...

FPGA--Verilog 实现乒乓操作:从原理到工程实践(附完整代码)

1. 什么是乒乓操作? 乒乓操作是FPGA设计中一种经典的数据缓冲技术,它的核心思想就像打乒乓球一样,两个存储单元轮流接收和输出数据。想象一下有两个水桶,当一个水桶在接水时,另一个水桶在倒水,如此反复交替…...

Phi-3-Mini-128K在计算机网络教学中的应用:协议模拟与故障排查

Phi-3-Mini-128K在计算机网络教学中的应用:协议模拟与故障排查 计算机网络这门课,很多学生都觉得有点“硬核”。协议栈、数据包、三次握手、路由表……这些概念光是听起来就让人头大。传统的教学方式,要么是老师对着PPT讲,要么是…...

winodws下cpolar 公网穿透保姆级安装使用教程

适用场景:把本机运行的服务(如 FastAPI 天气接口)暴露为公网 HTTPS,供 Dify、Apifox、手机等访问。 重要:cpolar 是独立客户端,不是 npm 包,不要使用 npm install cpolar 或 npx cpolar。一、cp…...

联想小新Air14 AMD版装Ubuntu 20.04,升级内核到5.11解决触控板和亮度问题(附详细步骤)

联想小新Air14 AMD版Ubuntu 20.04深度优化指南:从内核调优到桌面效率革命 当AMD锐龙5500U遇上Ubuntu 20.04,这本应是开源世界与高性能硬件的完美邂逅,但预装的5.8内核却让触控板和亮度调节成了摆设。这不是个例——2023年硬件兼容性报告显示&…...

Ollama离线安装避坑指南:从下载加速、权限配置到彻底卸载的完整闭环

Ollama离线安装避坑指南:从下载加速到彻底卸载的完整闭环 在人工智能模型本地化部署的浪潮中,Ollama凭借其轻量级和易用性成为众多开发者的首选工具。然而,离线环境下的安装过程往往充满各种"坑"——从缓慢的下载速度到恼人的权限问…...

保姆级教程:用Cesium.js 1.107+ 加载ArcGIS Server发布的WMTS地图(附完整代码)

从零实现Cesium与ArcGIS WMTS地图集成:2023终极实践指南 第一次打开Cesium的官方示例时,那个缓缓旋转的蓝色星球总让人有种造物主般的兴奋。但当你真正需要把业务地图投射到这个数字地球上时,现实往往比想象复杂得多——特别是当数据源来自企…...

从点阵到屏幕:深入解析STM32驱动LCD显示汉字的每一个字节(以16x16‘留’字为例)

从点阵到像素:STM32驱动LCD显示汉字的底层逻辑全解析 在嵌入式开发中,汉字显示是一个看似简单却暗藏玄机的技术点。当你在调试时遇到汉字显示乱码或错位的问题,是否曾好奇过这背后的完整数据流?本文将带你深入汉字显示的底层世界&…...

别再死记硬背了!用Python+Matlab复现海上信道核心模型(附代码与实测数据对比)

从理论到代码:PythonMatlab实战海上信道建模与数据验证 海上无线信道建模一直是通信工程领域的难点——复杂的多径效应、海面反射波动、大气折射干扰等因素交织,让许多研究者望而生畏。但换个角度想,这些挑战恰恰是理解无线传播本质的绝佳案例…...

AGI不是替代研究员,而是重定义“用户真相”——SITS2026演讲中被删减的8分钟深度推演

第一章:AGI不是替代研究员,而是重定义“用户真相”——SITS2026演讲中被删减的8分钟深度推演 2026奇点智能技术大会(https://ml-summit.org) 被压缩的范式跃迁 在SITS2026主会场后台,一段8分钟未公开的推演视频揭示了关键转折:A…...

不止是‘网络中心’:拆解中科院CNIC那些你可能不知道的硬核部门(大数据/AI/安全)

中科院CNIC技术部门全景:从大数据到网络安全的硬核实战指南 推开中科院计算机网络信息中心(CNIC)那扇看似普通的玻璃门,你会发现这里远不止是传统认知中的"网络中心"。在这个被简称为"网络中心"的机构里&…...

客户流失预警提前4.8小时达成!揭秘某电商AGI体验引擎中埋藏的6层实时反馈增强回路

第一章:AGI的客户服务与体验优化 2026奇点智能技术大会(https://ml-summit.org) 通用人工智能(AGI)正从根本上重塑客户服务的价值链——不再局限于响应式问答或流程自动化,而是以跨模态理解、长期记忆建模与自主目标推理能力&…...

RK3399固件备份与恢复全攻略:从分区表解析到实战操作(Ubuntu环境)

RK3399固件备份与恢复全攻略:从分区表解析到实战操作(Ubuntu环境) 在嵌入式开发领域,RK3399作为瑞芯微电子的旗舰级处理器,凭借其双核Cortex-A72四核Cortex-A53的六核架构和强大的GPU性能,被广泛应用于单板…...

iOS快捷指令进阶玩法:自动抓取并修改网页数据,打造你的移动端‘爬虫’小工具

iOS快捷指令进阶:构建移动端数据抓取与处理工作流 每次看到同事手动从网页复制数据到Excel再整理格式,我都忍不住想分享这个秘密武器——用快捷指令打造的移动端"爬虫"工具。上周市场部的Lisa用这套方法,把原本每天半小时的数据整理…...

MTools使用指南:整合图片处理、音视频编辑和AI智能工具

MTools使用指南:整合图片处理、音视频编辑和AI智能工具 1. MTools简介与核心功能 1.1 什么是MTools? MTools是一款现代化桌面工具集,将图片处理、音视频编辑、AI智能工具和开发辅助功能整合到一个界面精美的应用中。它就像数字工作台上一把…...

jQuery - 获取并设置 CSS 类

jQuery - 获取并设置 CSS 类 学习笔记 CSS 类(Class)是控制元素样式的关键。jQuery 提供了一组简洁的方法来动态地添加、移除、切换和检查 CSS 类,这是实现交互效果(如高亮、显示/隐藏、状态切换)最常用的手段。 一、核…...