当前位置: 首页 > article >正文

【AI大模型】RKNN神经网络计算框架从入门到部署

目录一、RKNN核心基础认知必学1.1 什么是RKNN1.2 RKNN核心工具链组成1.3 学习前提必备基础二、环境搭建分步实操零踩坑2.1 PC端环境搭建Ubuntu 20.042.1.1 安装Miniforge Conda环境隔离工具2.1.2 创建并激活RKNN-Toolkit2环境2.1.3 安装RKNN-Toolkit2及依赖2.1.4 下载官方仓库示例代码模型2.1.5 安装编译工具可选用于C/C Demo编译2.2 板端环境搭建瑞芯微开发板以RK3576为例2.2.1 硬件连接与固件烧录2.2.2 安装ADB工具与NPU驱动检查2.2.3 启动RKNN Server服务三、RKNN核心操作实操重点必练3.1 模型转换核心步骤3.2 量化优化提升推理效率必学3.3 仿真推理PC端调试无需硬件3.4 板端部署实操落地核心目标3.4.1 Python部署简单快捷适合调试3.4.2 C/C部署工业级高效稳定四、实操案例新手必练快速上手4.1 案例准备4.2 步骤拆解五、进阶技巧与常见问题避坑指南5.1 进阶技巧5.2 常见问题与解决方案六、学习资源推荐进阶提升七、学习路线总结新手必看一、RKNN核心基础认知必学1.1 什么是RKNNRKNNRockchip Neural Network是瑞芯微Rockchip专为自家NPU神经网络处理单元开发的端侧神经网络计算框架核心作用是提供“模型转换-部署-推理”全流程解决方案帮助开发者将训练好的AI模型高效适配到瑞芯微系列芯片如RK3588、RK3576、RK3566等上运行是瑞芯微边缘AI生态的核心工具。简单来说RKNN就像“模型翻译官”将PyTorch、TensorFlow、ONNX等主流框架训练的模型转换成瑞芯微NPU能直接识别的专属格式.rknn同时进行量化、优化让模型在边缘设备上实现低延迟、低功耗推理。1.2 RKNN核心工具链组成RKNN工具链核心分为两大模块二者协同完成模型部署全流程新手需重点区分RKNN-Toolkit2运行在PC端Ubuntu系统为主的开发套件核心功能包括模型转换、量化优化、仿真推理、性能评估、精度分析等是模型部署前的核心调试工具支持Python、C/C接口操作便捷且功能全面。RKNN Runtime运行在瑞芯微芯片开发板/边缘设备上的推理引擎负责加载.rknn格式模型调用NPU驱动执行推理提供通用API和零拷贝API两种推理流程适配Linux、Android、Debian等多种系统。1.3 学习前提必备基础系统基础熟悉Ubuntu系统推荐20.04版本掌握基本终端命令cd、wget、git、conda等。AI基础了解基本的深度学习模型如CNN、YOLO知道模型训练与推理的基本流程。硬件准备可选但推荐瑞芯微系列开发板如RK3576、RK3588开发板便于实操部署验证无硬件可先用PC端仿真推理。二、环境搭建分步实操零踩坑环境搭建分为“PC端RKNN-Toolkit2”和“板端RKNN Runtime”两部分优先完成PC端环境再进行板端适配步骤如下2.1 PC端环境搭建Ubuntu 20.042.1.1 安装Miniforge Conda环境隔离工具使用Conda创建独立环境避免依赖冲突执行以下命令# 下载Miniforge Conda安装包 wget -c https://github.com/conda-forge/miniforge/releases/latest/download/Miniforge3-Linux-x86_64.sh # 赋予执行权限 chmod 777 Miniforge3-Linux-x86_64.sh # 执行安装一路回车最后输入yes确认 bash Miniforge3-Linux-x86_64.sh2.1.2 创建并激活RKNN-Toolkit2环境# 激活Conda基础环境 source ~/miniforge3/bin/activate # 创建RKNN-Toolkit2专属环境Python 3.8为稳定版本 conda create -n RKNN-Toolkit2 python3.8 # 激活该环境 conda activate RKNN-Toolkit22.1.3 安装RKNN-Toolkit2及依赖# 安装RKNN-Toolkit2通过官方PyPI源稳定可靠 pip install rknn-toolkit2 -i https://pypi.org/simple # 安装额外依赖用于模型转换、推理验证 pip install numpy opencv-python torch onnx # 验证安装是否成功无报错即正常 python3 from rknn.api import RKNN exit()2.1.4 下载官方仓库示例代码模型瑞芯微官方提供模型仓库和工具仓库包含大量示例便于学习# 创建项目目录 mkdir Projects cd Projects # 下载RKNN-Toolkit2仓库工具示例、API文档 git clone https://github.com/airockchip/rknn-toolkit2.git --depth 1 # 下载RKNN Model Zoo预转换好的.rknn模型、实操案例 git clone https://github.com/airockchip/rknn_model_zoo.git --depth 12.1.5 安装编译工具可选用于C/C Demo编译# 安装cmake sudo apt install cmake # 下载GCC交叉编译器用于板端C Demo编译以aarch64架构为例 wget https://releases.linaro.org/components/toolchain/binaries/6.3-2017.05/aarch64-linux-gnu/gcc-linaro-6.3.1-2017.05-x86_64_aarch64-linux-gnu.tar.xz # 解压到Projects目录 tar -xvf gcc-linaro-6.3.1-2017.05-x86_64_aarch64-linux-gnu.tar.xz -C ./2.2 板端环境搭建瑞芯微开发板以RK3576为例2.2.1 硬件连接与固件烧录硬件连接用Type-C线将开发板的OTG接口连接到PCUbuntu虚拟机确保PC能识别开发板。烧录固件下载适配开发板的系统固件如Ubuntu 22.04、Android 14使用瑞芯微官方工具RKDevTool烧录Windows端操作更便捷固件可从开发板厂商官网获取如米尔电子、触觉智能。2.2.2 安装ADB工具与NPU驱动检查# PC端安装ADB工具用于连接开发板 sudo apt install adb # 检查开发板连接出现设备ID即成功 adb devices # 进入开发板终端检查NPU驱动版本 adb shell dmesg | grep -i rknpu说明默认出厂固件已集成NPU驱动若查询不到驱动需在开发板内核中开启配置CONFIG_ROCKCHIP_RKNPUy重新编译内核即可。2.2.3 启动RKNN Server服务RKNN Server是板端后台代理服务负责接收PC端数据并返回推理结果必须启动才能正常部署# 开发板终端执行启动服务 restart_rknn.sh # 检查服务版本与Runtime库版本一致性避免兼容性问题 strings /usr/bin/rknn_server | grep -i rknn_server version strings /usr/lib/librknnrt.so | grep -i librknnrt version若版本不一致需从PC端的rknn-toolkit2仓库中拷贝对应版本的库文件到开发板替换原有文件即可。三、RKNN核心操作实操重点必练核心操作围绕“模型转换→量化优化→仿真推理→板端部署”展开以最常用的Python API为例结合RKNN Model Zoo中的示例模型实操。3.1 模型转换核心步骤将ONNX格式模型最通用转换为.rknn格式以RKNN Model Zoo中的ResNet50模型为例from rknn.api import RKNN # 1. 初始化RKNN对象 rknn RKNN() # 2. 加载ONNX模型指定模型路径、输入尺寸等参数 onnx_model_path ./rknn_model_zoo/models/classification/resnet50/resnet50.onnx ret rknn.load_onnx(modelonnx_model_path, input_size_list[[3, 224, 224]]) if ret ! 0: print(模型加载失败) exit(ret) # 3. 构建RKNN模型转换为.rknn格式 ret rknn.build(do_quantizationFalse) # 先不量化便于调试 if ret ! 0: print(模型构建失败) exit(ret) # 4. 保存.rknn模型 rknn.save_rknn(./resnet50.rknn) # 5. 释放资源 rknn.release() print(模型转换完成保存路径./resnet50.rknn)关键说明load_onnx支持指定输入尺寸、均值、标准差等参数build函数中do_quantizationTrue可开启量化后续会详细讲解。3.2 量化优化提升推理效率必学量化是将FP32精度模型转换为INT8/INT16精度在保证精度损失可控的前提下减小模型体积、提升推理速度、降低功耗是边缘部署的关键优化步骤。from rknn.api import RKNN rknn RKNN() # 加载ONNX模型同上 onnx_model_path ./resnet50.onnx ret rknn.load_onnx(modelonnx_model_path, input_size_list[[3, 224, 224]]) # 构建模型开启INT8量化需指定校准数据集 # 校准数据集10-20张与模型输入尺寸一致的图片用于计算量化参数 calib_dataset ./calib_images # 校准图片目录 ret rknn.build(do_quantizationTrue, datasetcalib_dataset, quantization_accuracy_level1) # quantization_accuracy_level精度等级0-3等级越高精度越好速度稍慢 # 保存量化后的模型 rknn.save_rknn(./resnet50_int8.rknn) # 精度分析查看量化后的精度损失 rknn.accuracy_analysis(datasetcalib_dataset, output_dir./accuracy_result) rknn.release() print(量化完成精度分析报告已保存)注意校准数据集需与模型训练时的预处理方式一致如归一化、尺寸缩放否则会导致精度严重下降若精度损失过大可提升quantization_accuracy_level等级或增加校准图片数量。3.3 仿真推理PC端调试无需硬件在PC端模拟NPU推理验证模型转换和量化的正确性避免直接板端部署踩坑from rknn.api import RKNN import cv2 import numpy as np rknn RKNN() # 加载量化后的.rknn模型 ret rknn.load_rknn(./resnet50_int8.rknn) # 初始化仿真环境模拟瑞芯微NPU ret rknn.init_runtime(targetrk3576, device_idNone) # target指定芯片型号 # 预处理输入图片与模型要求一致 img cv2.imread(./test.jpg) img cv2.resize(img, (224, 224)) # 缩放至输入尺寸 img cv2.cvtColor(img, cv2.COLOR_BGR2RGB) # 转换通道BGR→RGB img img / 255.0 # 归一化 img np.expand_dims(img, axis0) # 增加batch维度 # 执行仿真推理 outputs rknn.inference(inputs[img]) # 解析输出结果ResNet50为分类模型输出概率最大的类别 pred_label np.argmax(outputs[0]) print(f仿真推理结果类别 {pred_label}概率 {outputs[0][pred_label]:.4f}) rknn.release()3.4 板端部署实操落地核心目标将转换好的.rknn模型部署到开发板分为Python部署和C/C部署工业场景优先C/C效率更高。3.4.1 Python部署简单快捷适合调试将.rknn模型和推理脚本传到开发板# PC端执行通过ADB传文件adb push ./resnet50_int8.rknn /home/root/adb push ./rknn_inference.py /home/root/开发板终端执行推理脚本# 进入开发板终端adb shellcd /home/root/# 执行推理确保板端已安装rknn-toolkit2python3 rknn_inference.py3.4.2 C/C部署工业级高效稳定PC端编译C Demo使用之前下载的交叉编译器编译rknn-toolkit2仓库中的C示例以resnet50为例cd ./rknn-toolkit2/examples/rknn_resnet50_demo# 修改Makefile指定交叉编译器路径vim Makefile# 编译make# 生成可执行文件 rknn_resnet50_demo将可执行文件和.rknn模型传到开发板执行推理adb push ./rknn_resnet50_demo /home/root/adb push ./resnet50_int8.rknn /home/root/adb shellcd /home/root/chmod x rknn_resnet50_demo./rknn_resnet50_demo ./resnet50_int8.rknn ./test.jpg四、实操案例新手必练快速上手以“RK3576开发板部署YOLO V10目标检测模型”为例完整演示从模型转换到板端推理的全流程贴合实际应用场景。4.1 案例准备模型YOLO V10.onnx模型可从RKNN Model Zoo下载或自行训练转换。硬件RK3576开发板如米尔MYD-LR3576、PCUbuntu 20.04。工具RKNN-Toolkit2、ADB、RKDevTool。4.2 步骤拆解模型转换与量化参考3.1、3.2节将YOLO V10.onnx转换为INT8量化的.rknn模型确保精度损失在可接受范围如mAP下降不超过5%。PC端仿真推理参考3.3节验证模型能正确检测目标如行人、车辆调整预处理参数如输入尺寸、置信度阈值。板端部署将模型和推理脚本传到开发板执行推理查看检测结果可通过HDMI连接显示器实时显示检测画面。性能优化开启零拷贝API推理替换通用API提升推理速度参考代码片段# 零拷贝API初始化替换init_runtimeret rknn.init_runtime(targetrk3576, runtime_modezero_copy)# 零拷贝输入无需CPU预处理直接传入原始数据ret rknn.set_input_tensor(inputs[0], input_tensor)ret rknn.run()outputs rknn.get_output_tensor()说明零拷贝API将数据预处理、量化等操作转移到NPU执行比通用API推理效率提升20%-50%适合对延迟要求高的场景如实时目标检测。五、进阶技巧与常见问题避坑指南5.1 进阶技巧模型加密使用rknn.build(encrypt_keyyour_key)对模型进行加密防止模型泄露板端推理时需传入对应密钥。多模型协同部署通过RKNN Runtime同时加载多个模型如目标检测图像分类实现复杂AI场景如菜品识别数量统计。性能调优通过rknn.performance_analysis()分析模型推理耗时针对性优化模型结构如剪枝或调整NPU频率。多设备调试RKNN-Toolkit2支持同时连接多个开发板批量部署和测试模型提升开发效率。5.2 常见问题与解决方案问题1模型转换失败提示“不支持的算子” 解决方案检查模型中是否有RKNN不支持的算子可通过rknn.list_supported_ops()查看支持的算子若有不支持的算子需修改模型结构如替换算子或使用ONNX Simplifier简化模型。问题2板端推理报错“rknn_server未启动” 解决方案执行restart_rknn.sh启动服务若启动失败检查NPU驱动是否正常或重新烧录固件。问题3量化后模型精度严重下降 解决方案增加校准数据集数量至少20张提升量化精度等级或调整模型预处理方式确保校准数据与训练数据分布一致。问题4推理速度达不到预期 解决方案开启INT8量化、使用零拷贝API、提升NPU频率或简化模型结构如使用轻量级模型。六、学习资源推荐进阶提升官方文档瑞芯微RKNN官方文档包含API详细说明、工具使用指南可在瑞芯微开发者官网下载。官方仓库RKNN-Toolkit2https://github.com/airockchip/rknn-toolkit2、RKNN Model Zoohttps://github.com/airockchip/rknn_model_zoo包含大量示例代码和预转换模型。实操视频触觉智能、米尔电子等开发板厂商提供免费的RKNN部署实操视频适合新手跟着学。社区交流瑞芯微开发者社区、CSDN、知乎可搜索相关问题获取其他开发者的避坑经验。七、学习路线总结新手必看1. 基础阶段掌握RKNN核心概念、工具链组成完成PC端和板端环境搭建能独立完成简单模型如ResNet50的转换和仿真推理。2. 实操阶段练习量化优化、板端部署完成YOLO等实际模型的部署掌握常见问题排查方法。3. 进阶阶段学习模型加密、多模型协同、性能调优结合实际场景如工业视觉、智能助手开发完整应用。提示RKNN学习的核心是“多实操、多调试”建议结合开发板反复练习重点掌握模型转换和量化优化这是边缘AI部署的核心技能。

相关文章:

【AI大模型】RKNN神经网络计算框架从入门到部署

目录 一、RKNN核心基础认知(必学) 1.1 什么是RKNN 1.2 RKNN核心工具链组成 1.3 学习前提(必备基础) 二、环境搭建(分步实操,零踩坑) 2.1 PC端环境搭建(Ubuntu 20.04&#xff09…...

写段代码教会你什么是HOOK技术?HOOK技术能干什么?禾

为 HagiCode 添加 GitHub Pages 自动部署支持 本项目早期代号为 PCode,现已正式更名为 HagiCode。本文记录了如何为项目引入自动化静态站点部署能力,让内容发布像喝水一样简单。 背景/引言 在 HagiCode 的开发过程中,我们遇到了一个很现实的问…...

解锁网盘下载新体验:八大平台直链解析工具深度解析

解锁网盘下载新体验:八大平台直链解析工具深度解析 【免费下载链接】Online-disk-direct-link-download-assistant 一个基于 JavaScript 的网盘文件下载地址获取工具。基于【网盘直链下载助手】修改 ,支持 百度网盘 / 阿里云盘 / 中国移动云盘 / 天翼云盘…...

Flink技术实践-实时流中的脏数据治理

一、背景介绍在大数据实时计算领域,脏数据就像一颗定时炸弹,随时可能引爆业务系统 —— 轻则导致计算结果错误,重则引发线上故障,影响业务活动。某电商平台因订单金额字段脏数据(负数、超大值)导致实时销售…...

三步告别蓝奏云下载烦恼:LanzouAPI直链解析工具完全指南

三步告别蓝奏云下载烦恼:LanzouAPI直链解析工具完全指南 【免费下载链接】LanzouAPI 蓝奏云直链,蓝奏api,蓝奏解析,蓝奏云解析API,蓝奏云带密码解析 项目地址: https://gitcode.com/gh_mirrors/la/LanzouAPI 还…...

阿里Z-Image中文文生图实战:ComfyUI可视化操作,3分钟生成第一张图

阿里Z-Image中文文生图实战:ComfyUI可视化操作,3分钟生成第一张图 1. 快速了解Z-Image-ComfyUI Z-Image是阿里巴巴最新开源的中文文生图大模型,它让普通用户也能在消费级显卡上快速生成高质量图像。这个镜像集成了Z-Image模型和ComfyUI可视…...

Retrieval-based-Voice-Conversion-WebUI:AI语音转换的终极完整指南

Retrieval-based-Voice-Conversion-WebUI&#xff1a;AI语音转换的终极完整指南 【免费下载链接】Retrieval-based-Voice-Conversion-WebUI Easily train a good VC model with voice data < 10 mins! 项目地址: https://gitcode.com/GitHub_Trending/re/Retrieval-based-…...

生信文件格式全解析:从fasta到bed的实战指南

1. 生信文件格式入门&#xff1a;为什么需要关注文件格式&#xff1f; 刚接触生物信息学的小伙伴们&#xff0c;经常会遇到这样的困惑&#xff1a;为什么同样的数据会有fasta、fastq、bam这么多不同格式&#xff1f;我刚开始做数据分析时&#xff0c;就曾经因为用错文件格式导致…...

沃虎电子:音频变压器在信号隔离与音频接口中的选型与应用解析

音频变压器作为一种传统的磁性元件&#xff0c;在现代电子设计中依然扮演着不可替代的角色。无论是在广播级音频设备、高端音响、电话接口&#xff0c;还是在工业现场的信号隔离中&#xff0c;音频变压器都能提供出色的共模抑制、地环路隔离和阻抗匹配功能。本文从工程实践出发…...

植物大战僵尸终极辅助工具:PVZ Toolkit完全指南,免费解锁无限阳光与全功能

植物大战僵尸终极辅助工具&#xff1a;PVZ Toolkit完全指南&#xff0c;免费解锁无限阳光与全功能 【免费下载链接】pvztoolkit 植物大战僵尸 PC 版综合修改器 项目地址: https://gitcode.com/gh_mirrors/pv/pvztoolkit 你是否曾经在《植物大战僵尸》中被无尽的僵尸浪潮…...

靶场练习-BUUCTF-Misc 1~8

BUUCTF-Misc题单 1~8 BUUCTF-Misc 第一题 签到 题目描述&#xff1a;签到题 flag{buu_ctf} 工具&#xff1a;无 题目直接给出 取得flag flag为 flag{buu_ctf} 第二题 题目名字被ban了 题目描述&#xff1a;注意&#xff1a;得到的 flag 请包上 flag{} 提交 工具&#xff1…...

如何快速解决Windows快捷键冲突:完整实用指南

如何快速解决Windows快捷键冲突&#xff1a;完整实用指南 【免费下载链接】hotkey-detective A small program for investigating stolen key combinations under Windows 7 and later. 项目地址: https://gitcode.com/gh_mirrors/ho/hotkey-detective 你是否遇到过精心…...

免费下载Steam创意工坊模组的终极方案:WorkshopDL完全指南

免费下载Steam创意工坊模组的终极方案&#xff1a;WorkshopDL完全指南 【免费下载链接】WorkshopDL WorkshopDL - The Best Steam Workshop Downloader 项目地址: https://gitcode.com/gh_mirrors/wo/WorkshopDL 在游戏模组的世界里&#xff0c;Steam创意工坊无疑是最大…...

3 月游戏直接杀疯了!4 款高分神作扎堆上线,玩到停不下来

3 月真的是游戏玩家的狂欢月&#xff01;各种类型的口碑佳作扎堆上线&#xff0c;从卡牌肉鸽到开放世界&#xff0c;从模拟经营到科幻射击&#xff0c;每一款都诚意拉满。今天就给大家整理了 3 月值得玩的 4 款高分游戏&#xff0c;评分全部在 7.5 分以上&#xff0c;闭眼入不踩…...

品牌组合的“协同”价值:多品牌共享渠道、技术、声誉的条件

品牌组合中的“协同”价值主要体现在不同品牌之间通过共享资源&#xff0c;优化市场运作。多品牌在共享渠道、技术和声誉时&#xff0c;能够形成强大的合力&#xff0c;为企业拓展市场提供支持。这一协同不仅降低了运营成本&#xff0c;还提升了消费者对各个品牌的认知度&#…...

鸿蒙hdc命令

1、安装的所有应用 hdc shell bm dump -a com.example.kikakeyboard com.ohos.UserFile.ExternalFileManager com.ohos.adminprovisioning com.ohos.amsdialog com.ohos.backgroundtaskmgr.resources com.ohos.calendardata com.ohos.callui com.ohos.camera com.ohos.certmana…...

Qwen3.5-9B玩转MATLAB:科学计算问题求解与代码转换

Qwen3.5-9B玩转MATLAB&#xff1a;科学计算问题求解与代码转换 1. 科研编程的新助手 最近遇到个挺有意思的事儿。实验室的小张跑来问我&#xff1a;"师兄&#xff0c;我有个Python写的信号处理脚本&#xff0c;但导师要求用MATLAB重写&#xff0c;这可咋办&#xff1f;&…...

三、Skills—— 模型能力的模块化专家技能,实现专业能力复用与扩展

一、Claude Skills 介绍1. 核心定义Claude Skills 是 Anthropic 为 Claude 推出的「模块化、可复用、可落地的能力扩展工具」&#xff0c;本质是用「YAML配置Markdown流程可选脚本」&#xff0c;将复杂操作、系统调用、业务流程封装成“能力包”&#xff0c;导入Claude后&#…...

CogVideoX-2b惊艳演示:输入一句话生成电影级动态场景

CogVideoX-2b惊艳演示&#xff1a;输入一句话生成电影级动态场景 1. 核心亮点&#xff1a;让每个人都能当"导演" 想象一下&#xff0c;你只需要输入一句话&#xff0c;就能生成一段电影级别的动态视频。这不是科幻电影里的场景&#xff0c;而是CogVideoX-2b带给我们…...

实测Xinference-v1.17.1:5分钟在Mac/Windows/Linux上搭建媲美OpenAI的本地API服务

实测Xinference-v1.17.1&#xff1a;5分钟在Mac/Windows/Linux上搭建媲美OpenAI的本地API服务 你是否曾经想过在自己的电脑上运行类似ChatGPT的AI服务&#xff0c;但又担心复杂的部署过程&#xff1f;或者担心使用云端API时的隐私问题和网络延迟&#xff1f;今天&#xff0c;我…...

IDM绿色直装版:无限制满速下载神器

今中午下资料&#xff0c;用IDM跑满1000M宽带。100MB/s的速度&#xff0c;三分钟下完2G文件。同事凑过看&#xff1a;“你这下载咋这么快&#xff1f;”我笑&#xff1a;“IDM直装版&#xff0c;不折腾才快。”突然觉得&#xff0c;好工具像高速路。不堵车&#xff0c;事儿就成…...

如何快速提升网盘下载速度:新手必学的LinkSwift网盘直链下载助手完整指南

如何快速提升网盘下载速度&#xff1a;新手必学的LinkSwift网盘直链下载助手完整指南 【免费下载链接】Online-disk-direct-link-download-assistant 一个基于 JavaScript 的网盘文件下载地址获取工具。基于【网盘直链下载助手】修改 &#xff0c;支持 百度网盘 / 阿里云盘 / 中…...

Proteus仿真集成:在虚拟硬件环境中测试Qwen3.5-2B边缘AI算法

Proteus仿真集成&#xff1a;在虚拟硬件环境中测试Qwen3.5-2B边缘AI算法 1. 边缘AI开发的痛点与虚拟仿真价值 在嵌入式AI应用开发中&#xff0c;硬件与算法的协同验证一直是个棘手问题。传统开发流程需要先制作硬件原型&#xff0c;再部署算法进行测试&#xff0c;一旦发现问…...

iframe加载卡顿?教你用Vue+Element写一个带重试按钮的智能loading组件

VueElement打造智能iframe加载组件&#xff1a;网络异常处理实战 当我们在SaaS平台中嵌入第三方文档或应用时&#xff0c;iframe的加载体验往往成为用户满意度的关键指标。特别是在网络波动环境下&#xff0c;传统的loading动画可能让用户陷入无限等待的困境。本文将带你开发一…...

网盘直链下载助手完整教程:如何轻松获取八大网盘真实下载地址

网盘直链下载助手完整教程&#xff1a;如何轻松获取八大网盘真实下载地址 【免费下载链接】Online-disk-direct-link-download-assistant 一个基于 JavaScript 的网盘文件下载地址获取工具。基于【网盘直链下载助手】修改 &#xff0c;支持 百度网盘 / 阿里云盘 / 中国移动云盘…...

ClearerVoice-Studio在客服系统中的实战应用:语音质检与分析

ClearerVoice-Studio在客服系统中的实战应用&#xff1a;语音质检与分析 1. 引言 你有没有遇到过这样的情况&#xff1a;客服中心的通话录音总是夹杂着键盘敲击声、背景交谈声&#xff0c;甚至还有空调的嗡嗡声&#xff1f;想要从中提取关键信息做质量分析&#xff0c;却发现…...

如何合并物化视图日志_管理多个物化视图共享同一基表日志的清理机制

能&#xff0c;物化视图日志可被多个MV同时引用&#xff0c;但清理需依据所有依赖MV中最晚的刷新时间&#xff0c;否则触发ORA-12034错误&#xff1b;直接删除或截断日志表会破坏SCN连续性。物化视图日志能被多个 MV 同时引用吗&#xff1f;能&#xff0c;而且这是常见且受支持…...

SeqGPT-560M命名实体识别效果展示:精准抽取各类实体

SeqGPT-560M命名实体识别效果展示&#xff1a;精准抽取各类实体 1. 开篇&#xff1a;当AI成为信息提取的"火眼金睛" 你有没有遇到过这样的情况&#xff1a;面对一篇长篇报告&#xff0c;需要快速找出所有人名、地名和机构名&#xff1b;或者处理大量新闻稿件时&…...

Redis如何优雅地记录缓存命中率报表

应直接用keyspace_hits和keyspace_misses计算实时命中率&#xff0c;因INFO中的hit_rate仅为临时近似值且不更新&#xff0c;无法反映动态变化。怎么用 Redis INFO 命令实时抓取命中率数据Redis 本身不提供「按时间窗口聚合」的命中率报表&#xff0c;但 INFO stats 里有现成的…...

FAST: Efficient Action Tokenization for Vision-Language-Action Models

FAST: Efficient Action Tokenization for Vision-Language-Action ModelsFAST&#xff1a;高效机器人动作分词方法详解1. 核心背景&#xff1a;为什么要提出 FAST&#xff1f;2. FAST 技术流水线 (Pipeline)3. 具体数学公式推导(1) 频域转换 (DCT)(2) 量化与稀疏化(3) BPE 序列…...