当前位置: 首页 > article >正文

一个简洁易用的 Delphi JSON 封装库,基于 System.JSON`单元封装,提供更直观的 API幼

一、前言什么是 OFA VQA 模型OFAOne For All是字节跳动提出的多模态预训练模型支持视觉问答、图像描述、图像编辑等多种任务其中视觉问答VQA是最常用的功能之一——输入一张图片和一个英文问题该模型仅支持英文模型就能输出对应的答案比如输入“瓶子”图片问题“What is the main subject?”输出“a water bottle”。本次部署使用 ModelScope 平台的 iic/ofa_visual-question-answering_pretrain_large_en 模型基于 Python 虚拟环境Miniconda部署全程在 Linux 环境下操作Windows 可参考命令略有差异。二、前置准备1. 环境基础系统LinuxUbuntu/CentOS 均可本次用 Ubuntu工具Miniconda用于创建独立虚拟环境避免环境污染Python 版本3.11亲测兼容3.9-3.11 均可不建议 3.12部分依赖不支持网络能访问 ModelScope、PyPI 源建议换清华源提速2. 提前说明本次部署的核心难点的是「依赖版本匹配」——ModelScope 平台的 OFA 模型会硬编码依赖版本运行时会自动卸载你安装的版本并强制安装指定版本很容易导致版本冲突其次是「输入格式适配」和「图片加载权限」问题这两个坑也很容易卡壳后面会详细说明。三、完整部署步骤一步都不能少步骤 1创建并激活虚拟环境关键避免环境污染为什么要创建虚拟环境因为不同模型的依赖版本差异很大比如本次 OFA 模型对 transformers、tokenizers 的版本要求很严格和其他模型可能冲突独立虚拟环境能隔离这些差异。打开终端执行以下命令全程复制即可# 1. 激活 Miniconda如果没配置环境变量先执行这个具体路径根据自己的 Miniconda 安装位置修改source /opt/miniconda3/bin/activate# 2. 创建虚拟环境环境名torch27Python 版本 3.11可自定义环境名conda create -n torch27 python3.11 -y# 3. 激活创建好的虚拟环境后续所有操作都要在这个环境里执行conda activate torch27执行成功后终端前缀会显示 (torch27)说明已经进入虚拟环境。步骤 2配置清华 PyPI 源提速避免下载依赖超时默认 PyPI 源在国外下载依赖很慢甚至会超时建议配置清华源执行以下命令pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple配置成功后后续用 pip 安装依赖会自动走清华源速度翻倍。步骤 3创建工作目录下载模型相关文件创建一个单独的工作目录用于存放脚本、图片等文件避免文件混乱# 1. 创建工作目录路径可自定义本次用 /root/workspace/ofa_visual-question-answeringmkdir -p /root/workspace/ofa_visual-question-answering# 2. 进入工作目录后续所有操作都在这个目录下cd /root/workspace/ofa_visual-question-answering步骤 4安装核心依赖重点版本必须完全匹配这是部署过程中最容易踩坑的一步OFA 模型对依赖版本要求极高尤其是 transformers、tokenizers、huggingface-hub 这三个库版本不匹配会直接导致模型无法初始化甚至报错。先给大家上「最终可用的依赖版本组合」亲测可复现避免踩坑tensorboardX2.6.4模型日志相关版本可兼容huggingface-hub0.25.2ModelScope 硬编码要求不能高也不能低transformers4.48.3ModelScope 硬编码要求对应 tokenizers 0.21.4tokenizers0.21.4必须和 transformers 4.48.3 匹配否则报错modelscope模型加载平台直接安装最新版即可Pillow、requests图片加载相关必备执行以下命令一次性安装所有依赖顺序不要乱避免版本冲突# 1. 先安装 tensorboardX无版本冲突放心装pip install tensorboardX2.6.4# 2. 安装 ModelScope 硬编码要求的核心依赖重点版本不能改pip install huggingface-hub0.25.2 tokenizers0.21.4 transformers4.48.3# 3. 安装 modelscope最新版即可负责加载 OFA 模型pip install modelscope# 4. 安装图片加载相关依赖Pillow 处理本地图片requests 处理在线图片pip install Pillow requests安装过程中如果出现「WARNING: Running pip as the root user」警告可忽略不影响功能这是提示用 root 用户运行 pip 可能有权限问题但不影响模型部署。安装完成后验证一下版本是否正确避免安装出错python -c import transformers, tokenizers, huggingface_hub; print(ftransformers: {transformers.__version__}); print(ftokenizers: {tokenizers.__version__}); print(fhuggingface-hub: {huggingface_hub.__version__})正常输出如下版本必须完全一致transformers: 4.48.3tokenizers: 0.21.4huggingface-hub: 0.25.2如果输出的版本不一致重新执行步骤 4 的安装命令确保版本正确。步骤 5禁用 ModelScope 自动依赖安装核心避坑操作这是最关键的避坑步骤ModelScope 加载 OFA 模型时会自动检查依赖版本如果发现版本和它硬编码的要求不一致会直接卸载你的版本并强制安装指定版本——哪怕你已经安装了正确的版本也会被覆盖导致之前的努力白费。所以我们需要设置环境变量禁用 ModelScope 自动安装/升级依赖执行以下命令# 禁用 ModelScope 自动安装依赖临时生效仅当前终端会话export MODELSCOPE_AUTO_INSTALL_DEPENDENCYFalseexport PIP_NO_INSTALL_UPGRADE1export PIP_NO_DEPENDENCIES1?? 注意如果后续新开终端、重新激活虚拟环境需要重新执行上面的命令临时生效如果想永久生效执行以下命令写入 bash 配置文件# 永久禁用自动依赖安装重启终端、重新激活环境也生效echo export MODELSCOPE_AUTO_INSTALL_DEPENDENCYFalse ~/.bashrcecho export PIP_NO_INSTALL_UPGRADE1 ~/.bashrcecho export PIP_NO_DEPENDENCIES1 ~/.bashrc# 使配置生效source ~/.bashrc步骤 6准备测试图片和运行脚本直观版新手友好脚本是核心之前踩过「输入格式错误」的坑所以这里直接给大家整理好「可直接运行、输出简洁、容错性强」的脚本只需修改图片路径和问题即可。6.1 准备测试图片将任意一张测试图片jpg/png 格式均可放到工作目录下命名为 test_image.jpg比如一张瓶子、猫、风景的图片如果没有本地图片也可以用在线公开图片 URL脚本已兼容。6.2 创建运行脚本test.py在工作目录下创建 test.py 脚本复制以下代码注释清晰可直接修改#!/usr/bin/env python3# -*- coding: utf-8 -*-OFA 视觉问答VQA模型 运行脚本直观版新手友好功能输入本地图片/在线图片 英文问题输出模型推理结果使用说明只需修改【核心配置区】的图片路径和问题无需修改其他代码import osimport sysfrom PIL import Imageimport requestsfrom io import BytesIOfrom modelscope.pipelines import pipelinefrom modelscope.utils.constant import Tasks# 核心配置区只需改这里新手重点关注# 1. 图片来源二选一本地路径优先级更高推荐用本地图片LOCAL_IMAGE_PATH ./test_image.jpg # 本地图片路径工作目录下的图片如./cat.jpg、./bottle.png# ONLINE_IMAGE_URL https://picsum.photos/600/400 # 备用公开测试图片URL无需下载直接加载# 2. 问答问题?? 注意该模型仅支持英文提问中文问题会输出无意义结果VQA_QUESTION What is the main subject in the picture? # 示例1图片的主要物体是什么# VQA_QUESTION What color is the object? # 示例2物体是什么颜色# VQA_QUESTION How many objects are there in the picture? # 示例3图片中有多少个物体# 工具函数无需修改封装好的功能def check_image_exists(path):检查本地图片是否存在避免路径错误导致加载失败if not os.path.exists(path):print(f? 错误本地图片文件不存在 → {path})print(请检查图片路径是否正确或替换为有效的图片文件)sys.exit(1)def load_image(image_source):加载图片兼容本地路径和在线URL返回PIL.Image对象模型要求的输入格式try:# 优先加载本地图片if os.path.exists(image_source):check_image_exists(image_source)img Image.open(image_source).convert(RGB) # 转为RGB格式避免灰度图报错print(f? 成功加载本地图片 → {image_source})# 加载在线图片备用避免本地图片缺失elif image_source.startswith((http://, https://)):response requests.get(image_source, timeout10) # 超时时间10秒response.raise_for_status() # 检查URL是否可访问避免403/404错误img Image.open(BytesIO(response.content)).convert(RGB)print(f? 成功加载在线图片 → {image_source})else:raise ValueError(? 图片来源错误必须是本地路径或合法的HTTP/HTTPS URL)return imgexcept Exception as e:print(f? 图片加载失败{str(e)})sys.exit(1)def init_vqa_model():初始化OFA VQA模型管道核心函数无需修改try:# 再次确认禁用自动依赖安装双重保险避免环境变量失效os.environ[MODELSCOPE_AUTO_INSTALL_DEPENDENCY] Falseos.environ[PIP_NO_INSTALL_UPGRADE] 1# 创建VQA模型管道?? trust_remote_codeTrue必须加适配OFA模型的自定义逻辑vqa_pipe pipeline(taskTasks.visual_question_answering, # 任务类型视觉问答modeliic/ofa_visual-question-answering_pretrain_large_en, # 模型名称model_revisionv1.0.0, # 模型版本固定v1.0.0避免版本兼容问题trust_remote_codeTrue # 关键参数允许加载模型的自定义代码)print(? OFA VQA模型初始化成功首次运行会自动下载模型耗时稍长耐心等待)return vqa_pipeexcept Exception as e:print(f? 模型初始化失败{str(e)})sys.exit(1)# 主逻辑无需修改执行推理if __name__ __main__:# 打印标题直观区分输出print(*60)print(?? OFA 视觉问答VQA模型 - 运行工具)print(*60)# 1. 初始化OFA VQA模型首次运行会自动下载模型约几百MB耐心等待vqa_model init_vqa_model()# 2. 确定图片来源优先本地本地不存在则用在线URLimage_source LOCAL_IMAGE_PATH if os.path.exists(LOCAL_IMAGE_PATH) else globals().get(ONLINE_IMAGE_URL, )if not image_source:print(? 错误未配置有效的图片来源请修改【核心配置区】的图片路径/URL)sys.exit(1)# 3. 加载图片转为模型要求的PIL.Image对象img load_image(image_source)# 4. 执行模型推理核心步骤print(f\n?? 提问{VQA_QUESTION})print(?? 模型推理中...推理速度取决于电脑配置约1-5秒)try:# 模型输入格式(PIL.Image对象, 英文问题文本) → 元组格式重点不能用字典result vqa_model((img, VQA_QUESTION))# 简化输出只提取核心答案去掉冗余信息新手更直观answer result.get(text, [No answer found])[0] # 提取最置信的第一个答案print(\n *60)print(f? 推理成功)print(f?? 图片{image_source})print(f?? 问题{VQA_QUESTION})print(f? 答案{answer})print(*60)except Exception as e:print(f\n? 推理失败{type(e).__name__} - {str(e)})sys.exit(1)步骤 7运行脚本查看推理结果所有准备工作完成后执行以下命令运行脚本python test.py?? 注意首次运行脚本时模型会自动从 ModelScope 下载约几百MB耗时稍长耐心等待即可后续运行会复用已下载的模型速度会很快。运行成功后输出如下直观简洁新手能快速看到结果?? OFA 视觉问答VQA模型 - 运行工具? OFA VQA模型初始化成功首次运行会自动下载模型耗时稍长耐心等待? 成功加载本地图片 → ./test_image.jpg?? 提问What is the main subject in the picture??? 模型推理中...推理速度取决于电脑配置约1-5秒? 推理成功?? 图片./test_image.jpg?? 问题What is the main subject in the picture?? 答案a water bottle在这里插入图片描述到这里OFA 视觉问答模型就部署成功并运行啦四、部署过程中遇到的所有坑现象原因解决方案这部分是重点我把部署过程中踩过的所有坑都整理出来每个坑都对应「现象原因解决方案」大家遇到相同问题时直接对照解决即可节省时间。坑1依赖版本冲突最常见踩了3次现象1ImportError: tokenizers0.20,0.21 is required...ImportError: tokenizers0.20,0.21 is required for a normal functioning of this module, but found tokenizers0.19.1.原因transformers 版本和 tokenizers 版本不匹配比如 transformers 4.46.1 要求 tokenizers 0.20.x而安装了 0.19.1。解决方案卸载当前 tokenizers安装对应版本比如 transformers 4.46.1 → tokenizers 0.20.1transformers 4.48.3 → tokenizers 0.21.4命令pip uninstall -y tokenizerspip install tokenizers0.21.4 # 对应transformers 4.48.3现象2ImportError: cannot import name GGUF_CONFIG_MAPPING from transformers.integrationsImportError: OfaForAllTasks: cannot import name GGUF_CONFIG_MAPPING from transformers.integrations原因transformers 版本过低比如 4.38.2该版本的 integrations 模块中没有导出 GGUF_CONFIG_MAPPING而模型代码引用了这个变量。解决方案安装 transformers 4.48.3ModelScope 硬编码要求兼容 GGUF_CONFIG_MAPPING命令pip uninstall -y transformerspip install transformers4.48.3现象3运行脚本时依赖被自动卸载并重新安装原因没有禁用 ModelScope 自动依赖安装ModelScope 检测到依赖版本和它硬编码的要求不一致会自动卸载你的版本并强制安装指定版本。解决方案设置环境变量禁用自动依赖安装参考步骤 5临时生效或永久生效均可。坑2图片加载失败403 Forbidden 错误现象requests.exceptions.HTTPError: 403 Client Error: Forbidden for url: ...requests.exceptions.HTTPError: 403 Client Error: Forbidden for url: http://modelscope-open.oss-cn-hangzhou.aliyuncs.com/test/images/visual_question_answering.png原因使用了 ModelScope 官方的测试图片 URL该 URL 权限变更或失效无法访问403 权限拒绝。解决方案替换为本地图片或公开可访问的在线图片 URL脚本已兼容两种图片来源参考步骤 6.1 和 6.2。坑3输入格式错误text 相关错误现象运行出错text 或 KeyError: text原因模型输入格式不符合要求OFA VQA 模型要求输入为「(PIL.Image对象, 英文问题文本)」的元组格式而不是字典比如 {image: ..., question: ...}。解决方案按照脚本中的格式将输入改为元组PIL.Image对象 问题文本脚本已封装好该逻辑无需手动修改参考步骤 6.2 中的主逻辑部分。坑4模型初始化失败缺少 trust_remote_codeTrue现象模型初始化时报错“无法加载自定义代码”或“模型结构不匹配”原因OFA 模型有自定义的预处理和推理逻辑创建 pipeline 时没有添加 trust_remote_codeTrue 参数无法加载这些自定义代码。解决方案创建 pipeline 时添加 trust_remote_codeTrue 参数参考步骤 6.2 中的 init_vqa_model 函数。坑5警告信息干扰非错误可忽略现象运行脚本时出现以下警告信息# 警告1pkg_resources 弃用警告UserWarning: pkg_resources is deprecated as an API. See ...# 警告2TRANSFORMERS_CACHE 弃用警告FutureWarning: Using TRANSFORMERS_CACHE is deprecated and will be removed in v5 of Transformers.# 警告3TensorFlow 相关警告cuDNN、cuFFT 等E external/local_xla/xla/stream_executor/cuda/cuda_dnn.cc:9261] Unable to register cuDNN factory: ...原因这些都是非功能性警告不影响模型运行——pkg_resources 弃用是 ModelScope 的依赖问题TRANSFORMERS_CACHE 弃用是 transformers 的版本提示TensorFlow 警告是缺少相关插件不影响 CPU 推理。解决方案直接忽略无需处理不影响模型的推理功能。五、总结与后续优化建议1. 部署总结本次 OFA 视觉问答模型部署的核心要点环境隔离必须用虚拟环境避免依赖冲突版本匹配transformers4.48.3 tokenizers0.21.4 huggingface-hub0.25.2版本不能改禁用自动依赖设置环境变量避免 ModelScope 自动覆盖依赖版本输入格式必须是PIL.Image对象, 英文问题的元组格式图片来源避免使用失效的 URL优先用本地图片。按照上面的步骤操作就能成功部署并运行模型输出正确的视觉问答结果。咆谷紫梅

相关文章:

一个简洁易用的 Delphi JSON 封装库,基于 System.JSON`单元封装,提供更直观的 API幼

一、前言:什么是 OFA VQA 模型? OFA(One For All)是字节跳动提出的多模态预训练模型,支持视觉问答、图像描述、图像编辑等多种任务,其中视觉问答(VQA)是最常用的功能之一——输入一张…...

OpenClaw语音控制扩展:千问3.5-27B实现本地语音指令识别

OpenClaw语音控制扩展:千问3.5-27B实现本地语音指令识别 1. 为什么需要语音控制OpenClaw? 去年冬天的一个深夜,我正在赶制一份数据分析报告。双手忙着在Excel和Python脚本间切换时,突然冒出一个念头:如果能用语音直接…...

写程序相册内页分隔卡,复古做旧风,输出:纪念册/影楼增值项目。

构建一个矢量图形生成算法,模拟激光切割/雕刻出的复古质感分隔卡,作为影楼的增值项目。项目名称:VintageSeperator (复古相册分隔卡生成器)一、 实际应用场景描述场景设定为高端婚纱影楼或独立摄影工作室的后期制作部门。为了提升客单价&…...

TMC7300单线UART电机驱动库技术解析与ESP32实践

1. TMC7300驱动库技术解析:面向嵌入式工程师的UART单线直流电机控制实践指南TMC7300是Trinamic(现属Analog Devices)推出的高集成度、低功耗直流电机驱动IC,专为电池供电、空间受限及对EMI敏感的应用场景设计。其核心创新在于采用…...

Go 语言构建 Agent 服务的优势

Go 语言构建 Agent 服务的核心优势与工程实践全解析作者: 架构师阿哲 发布时间: 202X-XX-XX 阅读时长: 约45分钟 字数统计: 12,870前置说明:系统需求与读者画像的校准 首先,我注意到当前的输入上下文存在一…...

800V高压机柜来袭,两相液冷为何成了“刚需“?

800V高压机柜来袭,两相液冷为何成了"刚需"?当一个机柜的功率突破120kW,传统散热方案正在触及物理天花板。2025年GTC大会上,英伟达抛出了一颗"深水炸弹":从2027年起,数据中心电力基础设…...

原生Android工程与Unity互相调用

原生Android工程与Unity互相调用教程,包含代码实现和注意事项。以下是详细步骤:一、Unity调用Android原生方法1. Android端准备在Android Studio中创建原生模块:// MyNativePlugin.java package com.example.unityplugin;import android.util…...

轻量级替代方案:OpenClaw+Phi-3-vision-128k-instruct在树莓派上的极限部署

轻量级替代方案:OpenClawPhi-3-vision-128k-instruct在树莓派上的极限部署 1. 为什么要在树莓派上折腾多模态AI? 去年夏天,我在整理家庭照片时突然意识到一个问题:现有的云相册服务虽然方便,但自动分类和搜索功能总是…...

ollama v0.20.4 正式发布!MLX 性能大幅提升 , Gemma4 闪光注意力全面启用

前言 2026年4月9日,本地大模型运行框架ollama正式推出v0.20.4 Latest稳定版本。本次更新围绕MLX硬件加速性能优化、Gemma4系列模型支持、前端代码规范、Safetensors模型创建流程、函数调用输出能力、MLX动态库兼容、集成测试体系搭建等多个核心维度展开,…...

2026-04-10:连接非零数字并乘以其数字和Ⅱ。用go语言,对每个查询区间 [l, r],按以下步骤处理字符串中的连续片段 s[l..r]: 1.在该子串中按从左到右的顺序,把所有“非零”字符数字

2026-04-10:连接非零数字并乘以其数字和Ⅱ。用go语言,对每个查询区间 [l, r],按以下步骤处理字符串中的连续片段 s[l…r]: 1.在该子串中按从左到右的顺序,把所有“非零”字符数字依次拼接成一个新整数 x;如…...

ESP32驱动A7608SA-H LTE Cat.1模组全栈固件库

1. 项目概述Modem-a7608sa-library是一个专为 ESP32 平台深度优化的开源固件库,面向 SIMCom A7608SA-H LTE Cat.1 模组提供全栈式驱动支持。该模组采用 LCC 封装,集成 LTE-FDD 频段(B1/B3/B5/B8/B20/B28)、GSM/GPRS(90…...

OpenClaw学习助手:Qwen3.5-9B生成Anki记忆卡片与错题集

OpenClaw学习助手:Qwen3.5-9B生成Anki记忆卡片与错题集 1. 为什么需要AI驱动的学习助手? 作为一名经常需要记忆大量知识点的学生,我一直在寻找更高效的学习方法。传统的手工制作Anki卡片不仅耗时耗力,而且很难保证知识点的系统性…...

实时行情系统设计:从协议选择到高可用架构,再到数据源选型睬

一、核心问题及解决方案(按踩坑频率排序) 问题 1:误删他人持有锁——最基础也最易犯的漏洞 成因:释放锁时未做身份校验,直接执行 DEL 命令删除键。典型场景:服务 A 持有锁后,业务逻辑耗时超过锁…...

【GraalVM静态镜像内存优化终极指南】:20年JVM专家亲授3大内存压缩技法,启动速度提升87%的私密实践

第一章:GraalVM静态镜像内存优化快速接入全景概览GraalVM 静态镜像(Native Image)通过提前编译(AOT)将 Java 应用编译为独立、无 JVM 依赖的原生可执行文件,在启动速度与内存占用方面具备显著优势。然而&am…...

大模型“入侵”广告推荐

引言:一次失败的“All in LLM”实验去年,某头部信息流平台进行了一次激进的实验:尝试用一个大语言模型(LLM)完全替换其精排层的深度模型。核心逻辑是:既然LLM能理解一切,那么理解用户和内容&…...

OpenClaw二次开发:基于Qwen3-14B扩展自定义自动化协议

OpenClaw二次开发:基于Qwen3-14B扩展自定义自动化协议 1. 为什么需要自定义协议 去年夏天,当我尝试用OpenClaw控制实验室的智能家居设备时,发现现有的指令集无法满足红外遥控和Zigbee设备联动的需求。官方提供的标准协议主要针对办公场景的…...

2025届毕业生推荐的降AI率助手解析与推荐

Ai论文网站排名(开题报告、文献综述、降aigc率、降重综合对比) TOP1. 千笔AI TOP2. aipasspaper TOP3. 清北论文 TOP4. 豆包 TOP5. kimi TOP6. deepseek 在内容创作这个范畴里,要降低AIGC也就是人工智能生成内容的那种明显特征&#xf…...

HSA:FcRn中和抗体筛选化学发光检测试剂盒:FcRn-lgG半衰期延长工程化抗体筛选

新生儿Fc受体(FcRn)是一种由FCGRT基因编码的Fcγ受体与β2-微球蛋白(B2M)组成的异源二聚体蛋白。FcRn在超过25种组织中表达,脾脏和肠道中水平最高,其核心功能是结合并保护单体免疫球蛋白G(IgG&a…...

高性能客服系统技术内幕:通过 SpinWait 自旋等待结构体提升高频消息分发性能舶

1. 智能软件工程的范式转移:从库集成到原生框架演进 在生成式人工智能(Generative AI)从单纯的文本生成向具备自主规划与执行能力的“代理化(Agentic)”系统跨越的过程中,.NET 生态系统正在经历一场自该平台…...

科研人福音!PaperOrchestra 把实验日志变投稿论文,文献综述图表全包

AI能替你写论文了?谷歌这个多智能体框架,从实验记录直接生成投稿级论文!研究背景 做AI研究的人都懂那种痛苦:实验跑完了,数据也有了,但把这些东西整理成一篇像样的论文,往往比做实验本身还费劲。…...

节能模式:OpenClaw+Qwen3.5-9B定时任务CPU优化方案

节能模式:OpenClawQwen3.5-9B定时任务CPU优化方案 1. 为什么需要关注OpenClaw的能耗问题 去年冬天,我的MacBook Pro风扇突然在凌晨三点狂转,把我从睡梦中惊醒。排查后发现是OpenClaw正在执行夜间数据抓取任务,Qwen3.5-9B模型的全…...

AI最强模型发布却说太危险不能公开:这次不是演习

Anthropic刚刚发布了一个AI模型,然后说:太危险,不能让你用 :2026年4月7日,Anthropic发布了一个叫Claude Mythos Preview的新模型。它能自主发现数千个零日漏洞,覆盖所有主流操作系统。它能在未经专项安全训练的情况下&…...

SQL中如何使用窗口函数实现Top N推荐系统

用 ROW_NUMBER() 配合 PARTITION BY user_id 获取每个用户的 Top N 推荐最稳妥,RANK() 和 DENSE_RANK() 因处理重复分数会导致条数不可控,如并列第1时 RANK() 跳至第3,易使 WHERE rn ≤ N 漏取或超取。窗口函数怎么写才能拿到每个用户的Top N…...

腾讯后端开发面经:一面 3 道算法压 30 分钟,二面开始全是场景题

腾讯后端开发面经:一面 3 道算法压 30 分钟,二面开始全是场景题 腾讯后端的面试,压强来得很快。 很多公司的节奏是:先聊项目,再问八股,最后来一道算法题。 腾讯不是。 这次整理到的一份真实面经里&#…...

JavaScript中WebWorker实现多线程计算避开主线程

Web Worker 是 JavaScript 实现多线程计算的核心机制,通过独立线程执行耗时逻辑(如大数据处理、加密解密等),避免阻塞主线程;需单独 JS 文件编写纯计算逻辑,用 postMessage 通信,仅支持结构化克…...

% 的人都用错了!Playwright vs Chrome DevTools MCP到底该怎么选?惩

一、环境准备 Free Spire.Doc for Python 是免费 Python 文档处理库,无需依赖 Microsoft Word,支持 Word 文档的创建、编辑、转换等操作,其中内置的 Markdown 解析能力,能高效实现 Markdown 到 Doc/Docx 格式的转换,且…...

医疗数据报表无数据问题完整排查复盘

一、场景与问题说明本次问题发生在医疗数据中台病案相关报表开发中,具体场景为:超声门诊科室相关的业务报表,在展示检查项目名称、执行医生这两个关键字段时,完全无数据展示,前端页面一片空白,客户直接反馈…...

大模型这么强,为啥还用YOLO和NLP?

你有没有想过一个问题 GPT-4o能看图说话,Claude能分析图表,Gemini能识别视频里的每一帧。大模型的视觉能力已经强到离谱了,NLP更是不在话下。 那为什么工业界还在用YOLO做目标检测?还在用BERT做文本分类? 是不懂&#…...

【GUI-Agent】阶跃星辰 GUI-MCP 解读---()---HITL(Human In The Loop)鬃

插件化架构 v3 版本最大的变化是引入了模块化插件系统。此前版本中集成在核心包里的原生功能,现在被拆分成独立的插件。 每个插件都是一个独立的 Composer 包,包含 Swift 和 Kotlin 代码、权限清单以及原生依赖。开发者只需安装实际用到的插件&#xff0…...

第九章:Vite API 参考手册

第九章:Vite API 参考手册 9.1 核心 API createServer 创建 Vite 开发服务器 import { createServer } from viteconst server await createServer({configFile: false,root: __dirname,server: { port: 3000 } })await server.listen() console.log(服务器启动在,…...