当前位置: 首页 > article >正文

DeploySharp 使用 ONNX Runtime 部署 PP-OCR v4/v5 教程

DeploySharp 使用 ONNX Runtime 部署 PP-OCR v4/v5 教程本文详细介绍如何使用 DeploySharp 框架和 ONNX Runtime 推理引擎部署 PP-OCR v4/v5 模型涵盖 CPU、CUDA、DML、TensorRT 等多种部署方式的完整指南。目录• 一、ONNX Runtime 简介• 二、支持的后端对比• 三、环境准备• 四、模型准备• 五、CPU 推理实现• 六、CUDA 推理实现• 七、DML 推理实现• 八、TensorRT 推理实现• 九、性能对比与优化• 十、常见问题解答• 十一、软件获取一、ONNX Runtime 简介1.1 什么是 ONNX RuntimeONNX Runtime 是微软推出的高性能跨平台推理引擎支持 ONNX 模型格式。它是目前最受欢迎的推理引擎之一具有以下特点•跨平台支持 Windows、Linux、macOS、Android、iOS 等•多后端支持 CPU、CUDA、TensorRT、OpenVINO、DirectML 等多种执行提供器•高性能经过深度优化推理速度快•易用性简单的 API快速集成1.2 ONNX Runtime 的优势优势说明跨平台一套代码多平台运行多硬件支持CPU、NVIDIA GPU、AMD GPU、Intel GPU 等丰富的执行提供器CPU、CUDA、TensorRT、DML、OpenVINO 等易于集成支持 C#、C、Python 等多种语言活跃社区微软官方维护持续更新二、支持的后端对比ONNX Runtime 支持多种执行提供器Execution Provider以下是各后端的对比执行提供器支持设备性能特点适用场景CPU所有 CPU性能中等通用性强无 GPU 环境跨平台部署CUDANVIDIA GPUGPU 加速性能好NVIDIA 显卡需要 CUDA 环境TensorRTNVIDIA GPUGPU 加速 TensorRT 优化性能最佳NVIDIA 显卡追求极致性能DML多厂商 GPUAMD/NVIDIA/IntelWindows 平台统一接口Windows 平台多品牌显卡OpenVINOIntel CPU/iGPU/GPUIntel 硬件优化Intel 硬件Windows/Linux三、环境准备3.1 系统要求组件最低要求推荐配置操作系统Windows 10/11, LinuxWindows 11.NET 版本.NET 6.0.NET 8.0CPU4核8核内存8GB16GB显卡可选NVIDIA RTX 3060NVIDIA RTX 40703.2 安装 ONNX Runtime NuGet 包CPU 版本dotnet add package Microsoft.ML.OnnxRuntime.ManagedCUDA 版本dotnet add package Microsoft.ML.OnnxRuntime.Gpu.Windows注意CUDA 版本需要与系统安装的 CUDA 版本匹配• CUDA 11.x → OnnxRuntime.Gpu (旧版本)• CUDA 12.x → OnnxRuntime.Gpu.Windows (新版本)DML 版本dotnet add package Microsoft.ML.OnnxRuntime.DirectMLTensorRT 版本dotnet add package Microsoft.ML.OnnxRuntime.Gpu.WindowsTensorRT 执行提供器需要额外安装 TensorRT。3.3 CUDA 环境配置如需1. 访问 NVIDIA CUDA 官网https://developer.nvidia.com/cuda-downloads2. 下载并安装 CUDA 12.x3. 验证安装nvcc --version4.4 依赖文件配置将以下 DLL 文件复制到程序运行目录CPU 模式无需额外 DLL 文件。CUDA 模式cuda_runtime.dll cudnn64_8.dll cudnn_ops_infer64_8.dll cudnn_cnn_infer64_8.dllDML 模式directml.dll onnxruntime_providers_shared.dll四、模型准备PP-OCR 模型结构ppocrv5/ ├── PP-OCRv5_mobile_det_onnx.onnx # 文本检测模型 ├── PP-OCRv5_mobile_cls_onnx.onnx # 文本方向分类模型 ├── PP-OCRv5_mobile_rec_onnx.onnx # 文本识别模型 └── ppocrv5_dict.txt # 识别字典五、CPU 推理实现5.1 创建配置using DeploySharp.Data; using DeploySharp.Engine; using DeploySharp.Model; // 创建 PP-OCR v5 配置 PaddleOCRConfig config PaddleOCRConfig.GetPPOCRv5Config( detModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_det_onnx.onnx, clsModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_cls_onnx.onnx, recModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_rec_onnx_combined.onnx, recDictPath: E:\Model\ppocrv5\ppocrv5_dict.txt ); // 配置推理引擎 config.GlobalInferenceBackend InferenceBackend.OnnxRuntime; config.GlobalDeviceType DeviceType.CPU; config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Cpu;5.2 完整代码示例using DeploySharp.Data; using DeploySharp.Engine; using DeploySharp.Log; using DeploySharp.Model; using OpenCvSharp; using System.Diagnostics; namespace PaddleOCR.ONNX.CPU.Demo { class Program { static void Main(string[] args) { MyLogger.SetLevel(Log.LogLevel.ERROR); // 读取图片 string imagePath E:\Data\ocr\demo_1.jpg; Mat img Cv2.ImRead(imagePath); if (img.Empty()) { Console.WriteLine(图片读取失败); return; } // 创建配置 PaddleOCRConfig config PaddleOCRConfig.GetPPOCRv5Config( detModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_det_onnx.onnx, clsModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_cls_onnx.onnx, recModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_rec_onnx_combined.onnx, recDictPath: E:\Model\ppocrv5\ppocrv5_dict.txt ); // CPU 推理配置 config.GlobalInferenceBackend InferenceBackend.OnnxRuntime; config.GlobalDeviceType DeviceType.CPU; config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Cpu; config.MaxConcurrency 4; config.GlobalMaxBatchSize 1; config.RecConfig.InferImageHeight 48; config.RecConfig.MaxImageWidth 320; // 创建预测器 using (PaddleOcrPredictor predictor new PaddleOcrPredictor(config)) { Console.WriteLine(模型加载完成); // 预热 predictor.Predict(img); // 性能测试 Stopwatch sw Stopwatch.StartNew(); OcrResult result predictor.Predict(img); sw.Stop(); // 输出结果 Console.WriteLine(\n 识别结果 ); Console.WriteLine(result.TextContentsToString()); Console.WriteLine($\n总耗时: {sw.ElapsedMilliseconds} ms); predictor.PrintTimeProfiling(); // 可视化 Mat resultMat Visualize.DrawOcrResult(img, result, new VisualizeOptions(1.0f)); Cv2.ImShow(Result, resultMat); Cv2.WaitKey(); } } } }5.3 性能数据设备耗时备注AMD Ryzen 7 5800H~656ms8核无 GPUIntel Core i7-12700H~550ms12核无 GPU六、CUDA 推理实现6.1 环境准备1. 确认已安装 NVIDIA 显卡驱动2. 安装 CUDA 12.x3. 复制 CUDA 相关 DLL 文件到程序目录6.2 创建配置PaddleOCRConfig config PaddleOCRConfig.GetPPOCRv5Config( detModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_det_onnx.onnx, clsModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_cls_onnx.onnx, recModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_rec_onnx_combined.onnx, recDictPath: E:\Model\ppocrv5\ppocrv5_dict.txt ); // CUDA 推理配置 config.GlobalInferenceBackend InferenceBackend.OnnxRuntime; config.GlobalDeviceType DeviceType.GPU0; config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Cuda; config.MaxConcurrency 4; config.GlobalMaxBatchSize 4;6.3 完整代码示例using DeploySharp.Data; using DeploySharp.Engine; using DeploySharp.Log; using DeploySharp.Model; using OpenCvSharp; using System.Diagnostics; namespace PaddleOCR.ONNX.CUDA.Demo { class Program { static void Main(string[] args) { MyLogger.SetLevel(Log.LogLevel.ERROR); // 读取图片 string imagePath E:\Data\ocr\demo_1.jpg; Mat img Cv2.ImRead(imagePath); // 创建配置 PaddleOCRConfig config PaddleOCRConfig.GetPPOCRv5Config( detModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_det_onnx.onnx, clsModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_cls_onnx.onnx, recModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_rec_onnx_combined.onnx, recDictPath: E:\Model\ppocrv5\ppocrv5_dict.txt ); // CUDA 推理配置 config.GlobalInferenceBackend InferenceBackend.OnnxRuntime; config.GlobalDeviceType DeviceType.GPU0; config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Cuda; config.MaxConcurrency 4; config.GlobalMaxBatchSize 4; config.RecConfig.InferImageHeight 48; config.RecConfig.MaxImageWidth 320; // 创建预测器 using (PaddleOcrPredictor predictor new PaddleOcrPredictor(config)) { Console.WriteLine(模型加载完成); // 预热 predictor.Predict(img); // 性能测试 Stopwatch sw Stopwatch.StartNew(); OcrResult result predictor.Predict(img); sw.Stop(); // 输出结果 Console.WriteLine(\n 识别结果 ); Console.WriteLine(result.TextContentsToString()); Console.WriteLine($\n总耗时: {sw.ElapsedMilliseconds} ms); predictor.PrintTimeProfiling(); // 可视化 Mat resultMat Visualize.DrawOcrResult(img, result, new VisualizeOptions(1.0f)); Cv2.ImShow(Result, resultMat); Cv2.WaitKey(); } } } }6.4 性能数据设备耗时备注NVIDIA RTX 3060~93msCUDA 12NVIDIA RTX 4070~65msCUDA 12NVIDIA RTX 4090~45msCUDA 12七、DML 推理实现7.1 DML 简介DirectML (DML) 是 Windows 平台的高性能硬件加速接口支持 AMD、NVIDIA 和 Intel 多厂商显卡。7.2 创建配置PaddleOCRConfig config PaddleOCRConfig.GetPPOCRv5Config( detModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_det_onnx.onnx, clsModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_cls_onnx.onnx, recModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_rec_onnx_combined.onnx, recDictPath: E:\Model\ppocrv5\ppocrv5_dict.txt ); // DML 推理配置 config.GlobalInferenceBackend InferenceBackend.OnnxRuntime; config.GlobalDeviceType DeviceType.GPU0; config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Dml; config.MaxConcurrency 2; config.GlobalMaxBatchSize 2;7.3 完整代码示例using DeploySharp.Data; using DeploySharp.Engine; using DeploySharp.Log; using DeploySharp.Model; using OpenCvSharp; using System.Diagnostics; namespace PaddleOCR.ONNX.DML.Demo { class Program { static void Main(string[] args) { MyLogger.SetLevel(Log.LogLevel.ERROR); // 读取图片 string imagePath E:\Data\ocr\demo_1.jpg; Mat img Cv2.ImRead(imagePath); // 创建配置 PaddleOCRConfig config PaddleOCRConfig.GetPPOCRv5Config( detModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_det_onnx.onnx, clsModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_cls_onnx.onnx, recModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_rec_onnx_combined.onnx, recDictPath: E:\Model\ppocrv5\ppocrv5_dict.txt ); // DML 推理配置 config.GlobalInferenceBackend InferenceBackend.OnnxRuntime; config.GlobalDeviceType DeviceType.GPU0; config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Dml; config.MaxConcurrency 2; config.GlobalMaxBatchSize 2; config.RecConfig.InferImageHeight 48; config.RecConfig.MaxImageWidth 320; // 创建预测器 using (PaddleOcrPredictor predictor new PaddleOcrPredictor(config)) { Console.WriteLine(模型加载完成); // 预热 predictor.Predict(img); // 性能测试 Stopwatch sw Stopwatch.StartNew(); OcrResult result predictor.Predict(img); sw.Stop(); // 输出结果 Console.WriteLine(\n 识别结果 ); Console.WriteLine(result.TextContentsToString()); Console.WriteLine($\n总耗时: {sw.ElapsedMilliseconds} ms); predictor.PrintTimeProfiling(); // 可视化 Mat resultMat Visualize.DrawOcrResult(img, result, new VisualizeOptions(1.0f)); Cv2.ImShow(Result, resultMat); Cv2.WaitKey(); } } } }7.4 性能数据设备耗时备注NVIDIA RTX 3060~114msDMLNVIDIA RTX 4070~75msDMLAMD RX 6800~95msDMLIntel Arc A750~130msDML八、TensorRT 推理实现8.1 环境准备1. 安装 CUDA 12.x2. 安装 TensorRT 8.x3. 配置环境变量8.2 创建配置PaddleOCRConfig config PaddleOCRConfig.GetPPOCRv5Config( detModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_det_onnx.onnx, clsModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_cls_onnx.onnx, recModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_rec_onnx_combined.onnx, recDictPath: E:\Model\ppocrv5\ppocrv5_dict.txt ); // TensorRT 推理配置 config.GlobalInferenceBackend InferenceBackend.OnnxRuntime; config.GlobalDeviceType DeviceType.GPU0; config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.TensorRt; config.MaxConcurrency 4; config.GlobalMaxBatchSize 4;注意首次推理时ONNX Runtime 会自动将 ONNX 模型编译为 TensorRT 引擎这个过程可能需要数分钟。8.3 完整代码示例using DeploySharp.Data; using DeploySharp.Engine; using DeploySharp.Log; using DeploySharp.Model; using OpenCvSharp; using System.Diagnostics; namespace PaddleOCR.ONNX.TensorRT.Demo { class Program { static void Main(string[] args) { MyLogger.SetLevel(Log.LogLevel.ERROR); // 读取图片 string imagePath E:\Data\ocr\demo_1.jpg; Mat img Cv2.ImRead(imagePath); // 创建配置 PaddleOCRConfig config PaddleOCRConfig.GetPPOCRv5Config( detModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_det_onnx.onnx, clsModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_cls_onnx.onnx, recModelPath: E:\Model\ppocrv5\PP-OCRv5_mobile_rec_onnx_combined.onnx, recDictPath: E:\Model\ppocrv5\ppocrv5_dict.txt ); // TensorRT 推理配置 config.GlobalInferenceBackend InferenceBackend.OnnxRuntime; config.GlobalDeviceType DeviceType.GPU0; config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.TensorRt; config.MaxConcurrency 4; config.GlobalMaxBatchSize 4; config.RecConfig.InferImageHeight 48; config.RecConfig.MaxImageWidth 320; // 创建预测器 using (PaddleOcrPredictor predictor new PaddleOcrPredictor(config)) { Console.WriteLine(模型加载完成); // 预热首次会编译 TensorRT 引擎需要较长时间 Console.WriteLine(开始预热首次运行会编译 TensorRT 引擎请耐心等待...); predictor.Predict(img); Console.WriteLine(预热完成); // 性能测试 Stopwatch sw Stopwatch.StartNew(); OcrResult result predictor.Predict(img); sw.Stop(); // 输出结果 Console.WriteLine(\n 识别结果 ); Console.WriteLine(result.TextContentsToString()); Console.WriteLine($\n总耗时: {sw.ElapsedMilliseconds} ms); predictor.PrintTimeProfiling(); // 可视化 Mat resultMat Visualize.DrawOcrResult(img, result, new VisualizeOptions(1.0f)); Cv2.ImShow(Result, resultMat); Cv2.WaitKey(); } } } }8.4 性能数据设备耗时备注NVIDIA RTX 3060~52msTensorRTNVIDIA RTX 4070~35msTensorRTNVIDIA RTX 4090~25msTensorRT九、性能对比与优化9.1 性能对比以下为使用相同测试图片在不同后端上的性能对比执行提供器设备耗时相对性能CPUAMD Ryzen 7 5800H656ms1.0xDMLNVIDIA RTX 3060114ms5.75xDMLIntel Arc 140V331ms1.98xCUDANVIDIA RTX 306093ms7.05xTensorRTNVIDIA RTX 306052ms12.6x9.2 优化建议并发优化// 根据硬件调整并发数 // GPU 推理建议设置为 2-4 config.MaxConcurrency 4; // CPU 推理建议设置为 CPU 核心数 config.MaxConcurrency 8;批处理优化// GPU 推理建议增大 Batch Size config.GlobalMaxBatchSize 4; // CPU 推理建议保持 Batch Size 为 1 config.GlobalMaxBatchSize 1;模型优化// 调整识别模型输入尺寸 config.RecConfig.InferImageHeight 48; // 降低高度可加速 config.RecConfig.MaxImageWidth 320; // 限制宽度预热优化// 进行 1-2 次预热推理 for (int i 0; i 2; i) { predictor.Predict(img); }十、常见问题解答Q1: CUDA 推理报错怎么办A:检查以下几点1. 确认 CUDA 版本是否正确安装2. 检查 CUDA 相关 DLL 文件是否在程序目录3. 确认显卡驱动是否为最新版本4. 检查显卡是否支持 CUDAQ2: DML 推理速度慢怎么办A:优化建议1. 确认显卡驱动是否为最新版本2. 减小并发数和 Batch Size3. 尝试使用 CUDA 或 TensorRT如果使用 NVIDIA 显卡Q3: TensorRT 首次推理很慢A:这是正常现象首次推理时ONNX Runtime 会自动将 ONNX 模型编译为 TensorRT 引擎这个过程可能需要数分钟。编译完成后后续推理速度会显著提升。Q4: 如何切换不同执行提供器A:只需修改配置// CPU config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Cpu; // CUDA config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Cuda; // DML config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.Dml; // TensorRT config.GlobalOnnxRuntimeDeviceType OnnxRuntimeDeviceType.TensorRt;Q5: 如何选择最佳执行提供器A:根据硬件和需求选择场景推荐后端无 GPU跨平台CPUNVIDIA 显卡快速部署CUDANVIDIA 显卡追求性能TensorRTWindows 平台AMD 显卡DMLWindows 平台多品牌显卡DML十一、软件获取11.1 源码下载DeploySharp 项目已完全开源https://github.com/guojin-yan/DeploySharp.git11.2 Demo 程序控制台 Demodemos/DeploySharp.OpenCvSharp.PaddleOcr.Demo桌面应用 Demoapplications/.NET 8.0/JYPPX.DeploySharp.OpenCvSharp.PaddleOcr结语通过本文的介绍您应该已经掌握了使用 DeploySharp 和 ONNX Runtime 部署 PP-OCR v4/v5 模型的完整流程。ONNX Runtime 作为微软推出的高性能推理引擎支持多种执行提供器和硬件平台是 .NET 开发者进行 OCR 部署的理想选择。如遇到问题欢迎通过 GitHub Issues 或 QQ 交流群945057948联系我们。QQ群二维码作者Guojin Yan发布时间2026年4月【文章声明】本文主要内容基于作者的研究与实践部分表述借助 AI 工具进行了辅助优化。由于技术局限性文中可能存在错误或疏漏之处恳请各位读者批评指正。如果内容无意中侵犯了您的权益请及时通过公众号后台与我们联系我们将第一时间核实并妥善处理。感谢您的理解与支持

相关文章:

DeploySharp 使用 ONNX Runtime 部署 PP-OCR v4/v5 教程

DeploySharp 使用 ONNX Runtime 部署 PP-OCR v4/v5 教程本文详细介绍如何使用 DeploySharp 框架和 ONNX Runtime 推理引擎部署 PP-OCR v4/v5 模型,涵盖 CPU、CUDA、DML、TensorRT 等多种部署方式的完整指南。目录• 一、ONNX Runtime 简介• 二、支持的后端对比• 三…...

Sora API:生成 AI 视频

简介 在数字内容创作日益重要的今天,视频生成技术逐渐成为开发者的热门选择。Sora API 是由 Ace Data Cloud 提供的一个强大工具,允许用户通过简单的 REST API 接口,将文本和图像转化为高质量的视频。无论是为社交媒体创建短视频&#xff0c…...

Oracle高效批量插入数据的四大实战方案解析

1. INSERT INTO SELECT:跨表搬运工的高效玩法 第一次接触Oracle批量插入时,我像发现新大陆一样兴奋——原来不需要写几百条INSERT语句也能搞定海量数据。INSERT INTO SELECT就是我的启蒙老师,它的工作原理就像搬家公司的集装箱卡车&#xff…...

免费跨平台开源音乐播放器:LX Music桌面版完全指南

免费跨平台开源音乐播放器:LX Music桌面版完全指南 【免费下载链接】lx-music-desktop 一个基于 Electron 的音乐软件 项目地址: https://gitcode.com/GitHub_Trending/lx/lx-music-desktop 你是否正在寻找一款真正免费、功能强大且支持多平台的音乐播放软件…...

云原生与容器--Service Mesh (Istio) 入门实战

系列导读:本篇将深入讲解 Service Mesh 与 Istio 的核心概念与实战应用。 文章目录一、Service Mesh 概述1.1 什么是 Service Mesh?1.2 为什么需要 Service Mesh?1.3 Sidecar 模式二、Istio 架构2.1 核心组件2.2 安装部署2.3 启用 Sidecar 注…...

CefFlashBrowser:2026年畅玩经典Flash游戏的最佳解决方案

CefFlashBrowser:2026年畅玩经典Flash游戏的最佳解决方案 【免费下载链接】CefFlashBrowser Flash浏览器 / Flash Browser 项目地址: https://gitcode.com/gh_mirrors/ce/CefFlashBrowser 还记得那些陪伴我们成长的Flash游戏吗?当主流浏览器纷纷放…...

2026年编程能力实测:Claude vs GPT vs Gemini

目前国内开发者想对比Claude 3.5、GPT-4o和Gemini三款模型的代码生成能力,最便捷的方案是使用聚合镜像平台库拉c.kulaai.cn。该平台国内直访、无需特殊网络环境,实测Claude 3.5生成一个Python排序算法仅需1.5秒,且支持代码高亮显示和文件上传…...

免费开源!3步解决显示器色彩偏差的完整指南

免费开源!3步解决显示器色彩偏差的完整指南 【免费下载链接】novideo_srgb Calibrate monitors to sRGB or other color spaces on NVIDIA GPUs, based on EDID data or ICC profiles 项目地址: https://gitcode.com/gh_mirrors/no/novideo_srgb 你是否曾经为…...

豆包与Gemini 3 Pro深度技术实测:从架构到中文任务性能的全方位剖析

核心结论:当前国内用户若想对豆包和Gemini进行深度技术对比,最理想的方案是通过聚合镜像平台库拉c.kulaai.cn直接访问Gemini 3 Pro。该平台无需特殊网络环境,聚合了Gemini、GPT-4o、Claude 3.5 Sonnet三大模型,且完全免费。本文基…...

机械键盘连击修复终极指南:免费软件解决方案完全教程 [特殊字符]⌨️

机械键盘连击修复终极指南:免费软件解决方案完全教程 🎮⌨️ 【免费下载链接】KeyboardChatterBlocker A handy quick tool for blocking mechanical keyboard chatter. 项目地址: https://gitcode.com/gh_mirrors/ke/KeyboardChatterBlocker 机械…...

英红九号金毛毫哪个牌子好?2026正宗品牌测评与选购指南

英红九号金毛毫,作为英德红茶的 “顶流单品”,以明前单芽为原料,兼具蜜香、花香与甜润口感,是红茶爱好者的心头好。但市面上品牌众多,如何选到正宗、高性价比的产品?本文从干茶、茶汤、叶底三大核心维度&am…...

别再只盯着代码了!手把手带你读懂东南大学轴承故障数据集(含8通道信号含义详解)

东南大学轴承故障数据集深度解析:从传感器信号到故障诊断实战 在工业设备健康监测领域,轴承故障诊断一直是研究热点,而高质量的数据集是算法验证和模型训练的基础。东南大学发布的轴承故障数据集因其完整的工况覆盖和多通道信号采集&#xff…...

五华区财邦寄售服务部:闲置贵重物品的合规处置渠道

五华区财邦寄售服务部:黄金、奢侈品、名表名包回收业务说明五华区财邦寄售服务部是昆明五华区本地正规经营的寄售服务机构,长期围绕居民闲置贵重物品处置需求,提供规范化、透明化的回收与寄售服务。机构经营资质齐全,交易流程清晰…...

像素时装锻造坊企业应用:游戏公司IP衍生品快速视觉化落地实操手册

像素时装锻造坊企业应用:游戏公司IP衍生品快速视觉化落地实操手册 1. 工具介绍与核心价值 像素时装锻造坊(Pixel Fashion Atelier)是一款专为游戏公司设计的AI图像生成工作站,基于Stable Diffusion与Anything-v5技术构建。不同于…...

如何用Zotero Better Notes构建你的个人学术知识库?完整工作流指南

如何用Zotero Better Notes构建你的个人学术知识库?完整工作流指南 【免费下载链接】zotero-better-notes Everything about note management. All in Zotero. 项目地址: https://gitcode.com/gh_mirrors/zo/zotero-better-notes 你是否经常在阅读文献时感到…...

PlayCover终极指南:3个步骤让你的Mac变身iOS游戏主机

PlayCover终极指南:3个步骤让你的Mac变身iOS游戏主机 【免费下载链接】PlayCover Community fork of PlayCover 项目地址: https://gitcode.com/gh_mirrors/pl/PlayCover 还在为Mac无法畅玩热门iOS游戏而烦恼吗?想要在更大屏幕上体验《原神》《崩…...

权威公布!电商设计必学的 5 款软件,第 4 个竟最重要!

行业痛点引入想象一下,你作为一名基础岗位的电商设计师,每天都在为了完成设计任务而忙碌。在电商行业竞争日益激烈的当下,你可能会面临这样的场景:甲方提出各种刁钻的要求,比如在短时间内完成高质量的设计,…...

Python新手必看:5分钟搞定BMI计算器(附完整代码及format函数详解)

Python新手实战:从零构建BMI计算器与字符串格式化深度解析 在编程学习的起步阶段,能够快速实现一个看得见、用得着的小工具,往往比学习抽象概念更能激发持续学习的动力。BMI(身体质量指数)计算器就是一个绝佳的练手项目…...

EMQX 社区版部署实战:从单机到高可用集群

1. 5分钟搞定Docker单机部署 第一次接触EMQX的朋友,我强烈建议从Docker方式入手。就像搭积木一样简单,三行命令就能让MQTT服务跑起来。最近给客户做POC测试时,我习惯用这种方式快速验证功能。 先说说硬件要求。官方建议最小配置是2核CPU4GB内…...

不止于文件回放:用simple-rtsp-server在Ubuntu上打造一个支持自定义音视频源的RTSP服务

超越文件回放:基于simple-rtsp-server构建自定义RTSP流媒体服务的深度实践 在实时音视频传输领域,RTSP协议因其低延迟和会话控制能力,始终占据着不可替代的位置。传统方案往往将RTSP服务器视为"黑箱",开发者只能被动使用…...

20260414_分词器

token是LLM的基本输入单位,由分词器根据统计规则把文本拆成的子词、字符或字节,再映射成数字ID。可拆分成四步: 准备语料初始化基础单元(可省略)统计并迭代合并输出产物并用于编码、解码 训练分词器 准备语料 应收集覆…...

抖音合集批量下载终极指南:如何高效获取完整内容收藏

抖音合集批量下载终极指南:如何高效获取完整内容收藏 【免费下载链接】douyin-downloader A practical Douyin downloader for both single-item and profile batch downloads, with progress display, retries, SQLite deduplication, and browser fallback suppor…...

4月14日TRO最新案件预警

26-cv-4061立案时间:2026-04-13 原告:Celine S.A.代理律所 :Kossofipr 诉讼类型:Trademark26-cv-4062立案时间:2026-04-13 原告:Winnie Rosaline Kan代理律所 :Keith A.…...

G-Helper:华硕笔记本性能调校的轻量级神器,释放硬件潜能

G-Helper:华硕笔记本性能调校的轻量级神器,释放硬件潜能 【免费下载链接】g-helper Lightweight, open-source control tool for ASUS laptops and ROG Ally. Manage performance modes, fans, GPU, battery, and RGB lighting across Zephyrus, Flow, T…...

2026最新版OpenClaw Windows汉化版一键安装 纯小白免代码教程(包含新安装包)

OpenClaw(小龙虾 AI)作为一款可本地部署的开源 AI 智能体,能够通过自然语言指令完成电脑自动化操作,有效减少重复办公任务。传统部署方式流程繁琐、环境配置复杂,让不少新手望而却步。本文专为 Windows 用户打造 OpenC…...

Qwen3-0.6B-FP8镜像免配置部署:无需修改代码,直接运行start.sh启动服务

Qwen3-0.6B-FP8镜像免配置部署:无需修改代码,直接运行start.sh启动服务 想快速体验一个轻量级但功能完整的AI对话模型吗?今天给大家介绍一个“开箱即用”的解决方案——Qwen3-0.6B-FP8镜像。这个镜像最大的特点就是零配置,你不需…...

Spring Boot项目实战:用RocksDB 6.10.2替代Redis做本地缓存(附完整代码)

Spring Boot项目实战:用RocksDB 6.10.2替代Redis做本地缓存(附完整代码) 在微服务架构中,缓存是提升系统性能的关键组件。传统方案多采用Redis等分布式缓存,但在某些场景下,嵌入式本地缓存反而能提供更优的…...

Qwen-Image-2512-SDNQ功能体验:负面提示词、宽高比调节等高级选项实测

Qwen-Image-2512-SDNQ功能体验:负面提示词、宽高比调节等高级选项实测 1. 开篇:当AI绘画遇上专业级控制 在AI绘画工具泛滥的今天,真正能让创作者感到"趁手"的解决方案却不多见。大多数工具要么功能过于简单,要么参数复…...

GLM-TTS音色管理实测:自定义保存与加载音色,打造专属语音库

GLM-TTS音色管理实测:自定义保存与加载音色,打造专属语音库 1. 引言:为什么需要音色管理功能 在语音合成应用中,我们经常需要反复使用某些特定的音色。传统TTS系统每次生成语音都需要重新上传参考音频,不仅效率低下&…...

WarcraftHelper终极指南:让魔兽争霸3在Win10/Win11上流畅运行的完整方案

WarcraftHelper终极指南:让魔兽争霸3在Win10/Win11上流畅运行的完整方案 【免费下载链接】WarcraftHelper Warcraft III Helper , support 1.20e, 1.24e, 1.26a, 1.27a, 1.27b 项目地址: https://gitcode.com/gh_mirrors/wa/WarcraftHelper 还在为魔兽争霸3在…...