当前位置: 首页 > article >正文

电容是什么?一个“快充快放”的微型充电宝轮

一、前言什么是 OFA VQA 模型OFAOne For All是字节跳动提出的多模态预训练模型支持视觉问答、图像描述、图像编辑等多种任务其中视觉问答VQA是最常用的功能之一——输入一张图片和一个英文问题该模型仅支持英文模型就能输出对应的答案比如输入“瓶子”图片问题“What is the main subject?”输出“a water bottle”。本次部署使用 ModelScope 平台的 iic/ofa_visual-question-answering_pretrain_large_en 模型基于 Python 虚拟环境Miniconda部署全程在 Linux 环境下操作Windows 可参考命令略有差异。二、前置准备1. 环境基础系统LinuxUbuntu/CentOS 均可本次用 Ubuntu工具Miniconda用于创建独立虚拟环境避免环境污染Python 版本3.11亲测兼容3.9-3.11 均可不建议 3.12部分依赖不支持网络能访问 ModelScope、PyPI 源建议换清华源提速2. 提前说明本次部署的核心难点的是「依赖版本匹配」——ModelScope 平台的 OFA 模型会硬编码依赖版本运行时会自动卸载你安装的版本并强制安装指定版本很容易导致版本冲突其次是「输入格式适配」和「图片加载权限」问题这两个坑也很容易卡壳后面会详细说明。三、完整部署步骤一步都不能少步骤 1创建并激活虚拟环境关键避免环境污染为什么要创建虚拟环境因为不同模型的依赖版本差异很大比如本次 OFA 模型对 transformers、tokenizers 的版本要求很严格和其他模型可能冲突独立虚拟环境能隔离这些差异。打开终端执行以下命令全程复制即可# 1. 激活 Miniconda如果没配置环境变量先执行这个具体路径根据自己的 Miniconda 安装位置修改source /opt/miniconda3/bin/activate# 2. 创建虚拟环境环境名torch27Python 版本 3.11可自定义环境名conda create -n torch27 python3.11 -y# 3. 激活创建好的虚拟环境后续所有操作都要在这个环境里执行conda activate torch27执行成功后终端前缀会显示 (torch27)说明已经进入虚拟环境。步骤 2配置清华 PyPI 源提速避免下载依赖超时默认 PyPI 源在国外下载依赖很慢甚至会超时建议配置清华源执行以下命令pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple配置成功后后续用 pip 安装依赖会自动走清华源速度翻倍。步骤 3创建工作目录下载模型相关文件创建一个单独的工作目录用于存放脚本、图片等文件避免文件混乱# 1. 创建工作目录路径可自定义本次用 /root/workspace/ofa_visual-question-answeringmkdir -p /root/workspace/ofa_visual-question-answering# 2. 进入工作目录后续所有操作都在这个目录下cd /root/workspace/ofa_visual-question-answering步骤 4安装核心依赖重点版本必须完全匹配这是部署过程中最容易踩坑的一步OFA 模型对依赖版本要求极高尤其是 transformers、tokenizers、huggingface-hub 这三个库版本不匹配会直接导致模型无法初始化甚至报错。先给大家上「最终可用的依赖版本组合」亲测可复现避免踩坑tensorboardX2.6.4模型日志相关版本可兼容huggingface-hub0.25.2ModelScope 硬编码要求不能高也不能低transformers4.48.3ModelScope 硬编码要求对应 tokenizers 0.21.4tokenizers0.21.4必须和 transformers 4.48.3 匹配否则报错modelscope模型加载平台直接安装最新版即可Pillow、requests图片加载相关必备执行以下命令一次性安装所有依赖顺序不要乱避免版本冲突# 1. 先安装 tensorboardX无版本冲突放心装pip install tensorboardX2.6.4# 2. 安装 ModelScope 硬编码要求的核心依赖重点版本不能改pip install huggingface-hub0.25.2 tokenizers0.21.4 transformers4.48.3# 3. 安装 modelscope最新版即可负责加载 OFA 模型pip install modelscope# 4. 安装图片加载相关依赖Pillow 处理本地图片requests 处理在线图片pip install Pillow requests安装过程中如果出现「WARNING: Running pip as the root user」警告可忽略不影响功能这是提示用 root 用户运行 pip 可能有权限问题但不影响模型部署。安装完成后验证一下版本是否正确避免安装出错python -c import transformers, tokenizers, huggingface_hub; print(ftransformers: {transformers.__version__}); print(ftokenizers: {tokenizers.__version__}); print(fhuggingface-hub: {huggingface_hub.__version__})正常输出如下版本必须完全一致transformers: 4.48.3tokenizers: 0.21.4huggingface-hub: 0.25.2如果输出的版本不一致重新执行步骤 4 的安装命令确保版本正确。步骤 5禁用 ModelScope 自动依赖安装核心避坑操作这是最关键的避坑步骤ModelScope 加载 OFA 模型时会自动检查依赖版本如果发现版本和它硬编码的要求不一致会直接卸载你的版本并强制安装指定版本——哪怕你已经安装了正确的版本也会被覆盖导致之前的努力白费。所以我们需要设置环境变量禁用 ModelScope 自动安装/升级依赖执行以下命令# 禁用 ModelScope 自动安装依赖临时生效仅当前终端会话export MODELSCOPE_AUTO_INSTALL_DEPENDENCYFalseexport PIP_NO_INSTALL_UPGRADE1export PIP_NO_DEPENDENCIES1?? 注意如果后续新开终端、重新激活虚拟环境需要重新执行上面的命令临时生效如果想永久生效执行以下命令写入 bash 配置文件# 永久禁用自动依赖安装重启终端、重新激活环境也生效echo export MODELSCOPE_AUTO_INSTALL_DEPENDENCYFalse ~/.bashrcecho export PIP_NO_INSTALL_UPGRADE1 ~/.bashrcecho export PIP_NO_DEPENDENCIES1 ~/.bashrc# 使配置生效source ~/.bashrc步骤 6准备测试图片和运行脚本直观版新手友好脚本是核心之前踩过「输入格式错误」的坑所以这里直接给大家整理好「可直接运行、输出简洁、容错性强」的脚本只需修改图片路径和问题即可。6.1 准备测试图片将任意一张测试图片jpg/png 格式均可放到工作目录下命名为 test_image.jpg比如一张瓶子、猫、风景的图片如果没有本地图片也可以用在线公开图片 URL脚本已兼容。6.2 创建运行脚本test.py在工作目录下创建 test.py 脚本复制以下代码注释清晰可直接修改#!/usr/bin/env python3# -*- coding: utf-8 -*-OFA 视觉问答VQA模型 运行脚本直观版新手友好功能输入本地图片/在线图片 英文问题输出模型推理结果使用说明只需修改【核心配置区】的图片路径和问题无需修改其他代码import osimport sysfrom PIL import Imageimport requestsfrom io import BytesIOfrom modelscope.pipelines import pipelinefrom modelscope.utils.constant import Tasks# 核心配置区只需改这里新手重点关注# 1. 图片来源二选一本地路径优先级更高推荐用本地图片LOCAL_IMAGE_PATH ./test_image.jpg # 本地图片路径工作目录下的图片如./cat.jpg、./bottle.png# ONLINE_IMAGE_URL https://picsum.photos/600/400 # 备用公开测试图片URL无需下载直接加载# 2. 问答问题?? 注意该模型仅支持英文提问中文问题会输出无意义结果VQA_QUESTION What is the main subject in the picture? # 示例1图片的主要物体是什么# VQA_QUESTION What color is the object? # 示例2物体是什么颜色# VQA_QUESTION How many objects are there in the picture? # 示例3图片中有多少个物体# 工具函数无需修改封装好的功能def check_image_exists(path):检查本地图片是否存在避免路径错误导致加载失败if not os.path.exists(path):print(f? 错误本地图片文件不存在 → {path})print(请检查图片路径是否正确或替换为有效的图片文件)sys.exit(1)def load_image(image_source):加载图片兼容本地路径和在线URL返回PIL.Image对象模型要求的输入格式try:# 优先加载本地图片if os.path.exists(image_source):check_image_exists(image_source)img Image.open(image_source).convert(RGB) # 转为RGB格式避免灰度图报错print(f? 成功加载本地图片 → {image_source})# 加载在线图片备用避免本地图片缺失elif image_source.startswith((http://, https://)):response requests.get(image_source, timeout10) # 超时时间10秒response.raise_for_status() # 检查URL是否可访问避免403/404错误img Image.open(BytesIO(response.content)).convert(RGB)print(f? 成功加载在线图片 → {image_source})else:raise ValueError(? 图片来源错误必须是本地路径或合法的HTTP/HTTPS URL)return imgexcept Exception as e:print(f? 图片加载失败{str(e)})sys.exit(1)def init_vqa_model():初始化OFA VQA模型管道核心函数无需修改try:# 再次确认禁用自动依赖安装双重保险避免环境变量失效os.environ[MODELSCOPE_AUTO_INSTALL_DEPENDENCY] Falseos.environ[PIP_NO_INSTALL_UPGRADE] 1# 创建VQA模型管道?? trust_remote_codeTrue必须加适配OFA模型的自定义逻辑vqa_pipe pipeline(taskTasks.visual_question_answering, # 任务类型视觉问答modeliic/ofa_visual-question-answering_pretrain_large_en, # 模型名称model_revisionv1.0.0, # 模型版本固定v1.0.0避免版本兼容问题trust_remote_codeTrue # 关键参数允许加载模型的自定义代码)print(? OFA VQA模型初始化成功首次运行会自动下载模型耗时稍长耐心等待)return vqa_pipeexcept Exception as e:print(f? 模型初始化失败{str(e)})sys.exit(1)# 主逻辑无需修改执行推理if __name__ __main__:# 打印标题直观区分输出print(*60)print(?? OFA 视觉问答VQA模型 - 运行工具)print(*60)# 1. 初始化OFA VQA模型首次运行会自动下载模型约几百MB耐心等待vqa_model init_vqa_model()# 2. 确定图片来源优先本地本地不存在则用在线URLimage_source LOCAL_IMAGE_PATH if os.path.exists(LOCAL_IMAGE_PATH) else globals().get(ONLINE_IMAGE_URL, )if not image_source:print(? 错误未配置有效的图片来源请修改【核心配置区】的图片路径/URL)sys.exit(1)# 3. 加载图片转为模型要求的PIL.Image对象img load_image(image_source)# 4. 执行模型推理核心步骤print(f\n?? 提问{VQA_QUESTION})print(?? 模型推理中...推理速度取决于电脑配置约1-5秒)try:# 模型输入格式(PIL.Image对象, 英文问题文本) → 元组格式重点不能用字典result vqa_model((img, VQA_QUESTION))# 简化输出只提取核心答案去掉冗余信息新手更直观answer result.get(text, [No answer found])[0] # 提取最置信的第一个答案print(\n *60)print(f? 推理成功)print(f?? 图片{image_source})print(f?? 问题{VQA_QUESTION})print(f? 答案{answer})print(*60)except Exception as e:print(f\n? 推理失败{type(e).__name__} - {str(e)})sys.exit(1)步骤 7运行脚本查看推理结果所有准备工作完成后执行以下命令运行脚本python test.py?? 注意首次运行脚本时模型会自动从 ModelScope 下载约几百MB耗时稍长耐心等待即可后续运行会复用已下载的模型速度会很快。运行成功后输出如下直观简洁新手能快速看到结果?? OFA 视觉问答VQA模型 - 运行工具? OFA VQA模型初始化成功首次运行会自动下载模型耗时稍长耐心等待? 成功加载本地图片 → ./test_image.jpg?? 提问What is the main subject in the picture??? 模型推理中...推理速度取决于电脑配置约1-5秒? 推理成功?? 图片./test_image.jpg?? 问题What is the main subject in the picture?? 答案a water bottle在这里插入图片描述到这里OFA 视觉问答模型就部署成功并运行啦四、部署过程中遇到的所有坑现象原因解决方案这部分是重点我把部署过程中踩过的所有坑都整理出来每个坑都对应「现象原因解决方案」大家遇到相同问题时直接对照解决即可节省时间。坑1依赖版本冲突最常见踩了3次现象1ImportError: tokenizers0.20,0.21 is required...ImportError: tokenizers0.20,0.21 is required for a normal functioning of this module, but found tokenizers0.19.1.原因transformers 版本和 tokenizers 版本不匹配比如 transformers 4.46.1 要求 tokenizers 0.20.x而安装了 0.19.1。解决方案卸载当前 tokenizers安装对应版本比如 transformers 4.46.1 → tokenizers 0.20.1transformers 4.48.3 → tokenizers 0.21.4命令pip uninstall -y tokenizerspip install tokenizers0.21.4 # 对应transformers 4.48.3现象2ImportError: cannot import name GGUF_CONFIG_MAPPING from transformers.integrationsImportError: OfaForAllTasks: cannot import name GGUF_CONFIG_MAPPING from transformers.integrations原因transformers 版本过低比如 4.38.2该版本的 integrations 模块中没有导出 GGUF_CONFIG_MAPPING而模型代码引用了这个变量。解决方案安装 transformers 4.48.3ModelScope 硬编码要求兼容 GGUF_CONFIG_MAPPING命令pip uninstall -y transformerspip install transformers4.48.3现象3运行脚本时依赖被自动卸载并重新安装原因没有禁用 ModelScope 自动依赖安装ModelScope 检测到依赖版本和它硬编码的要求不一致会自动卸载你的版本并强制安装指定版本。解决方案设置环境变量禁用自动依赖安装参考步骤 5临时生效或永久生效均可。坑2图片加载失败403 Forbidden 错误现象requests.exceptions.HTTPError: 403 Client Error: Forbidden for url: ...requests.exceptions.HTTPError: 403 Client Error: Forbidden for url: http://modelscope-open.oss-cn-hangzhou.aliyuncs.com/test/images/visual_question_answering.png原因使用了 ModelScope 官方的测试图片 URL该 URL 权限变更或失效无法访问403 权限拒绝。解决方案替换为本地图片或公开可访问的在线图片 URL脚本已兼容两种图片来源参考步骤 6.1 和 6.2。坑3输入格式错误text 相关错误现象运行出错text 或 KeyError: text原因模型输入格式不符合要求OFA VQA 模型要求输入为「(PIL.Image对象, 英文问题文本)」的元组格式而不是字典比如 {image: ..., question: ...}。解决方案按照脚本中的格式将输入改为元组PIL.Image对象 问题文本脚本已封装好该逻辑无需手动修改参考步骤 6.2 中的主逻辑部分。坑4模型初始化失败缺少 trust_remote_codeTrue现象模型初始化时报错“无法加载自定义代码”或“模型结构不匹配”原因OFA 模型有自定义的预处理和推理逻辑创建 pipeline 时没有添加 trust_remote_codeTrue 参数无法加载这些自定义代码。解决方案创建 pipeline 时添加 trust_remote_codeTrue 参数参考步骤 6.2 中的 init_vqa_model 函数。坑5警告信息干扰非错误可忽略现象运行脚本时出现以下警告信息# 警告1pkg_resources 弃用警告UserWarning: pkg_resources is deprecated as an API. See ...# 警告2TRANSFORMERS_CACHE 弃用警告FutureWarning: Using TRANSFORMERS_CACHE is deprecated and will be removed in v5 of Transformers.# 警告3TensorFlow 相关警告cuDNN、cuFFT 等E external/local_xla/xla/stream_executor/cuda/cuda_dnn.cc:9261] Unable to register cuDNN factory: ...原因这些都是非功能性警告不影响模型运行——pkg_resources 弃用是 ModelScope 的依赖问题TRANSFORMERS_CACHE 弃用是 transformers 的版本提示TensorFlow 警告是缺少相关插件不影响 CPU 推理。解决方案直接忽略无需处理不影响模型的推理功能。五、总结与后续优化建议1. 部署总结本次 OFA 视觉问答模型部署的核心要点环境隔离必须用虚拟环境避免依赖冲突版本匹配transformers4.48.3 tokenizers0.21.4 huggingface-hub0.25.2版本不能改禁用自动依赖设置环境变量避免 ModelScope 自动覆盖依赖版本输入格式必须是PIL.Image对象, 英文问题的元组格式图片来源避免使用失效的 URL优先用本地图片。按照上面的步骤操作就能成功部署并运行模型输出正确的视觉问答结果。来炭势涯

相关文章:

电容是什么?一个“快充快放”的微型充电宝轮

一、前言:什么是 OFA VQA 模型? OFA(One For All)是字节跳动提出的多模态预训练模型,支持视觉问答、图像描述、图像编辑等多种任务,其中视觉问答(VQA)是最常用的功能之一——输入一张…...

C 语言从 0 入门(十一)|指针基础:定义、解引用、指针与变量

大家好,我是网域小星球。 前面我们学习了数组、函数、变量等基础内容,代码能力已经可以完成大多数基础程序。而从这一篇开始,我们正式进入 C 语言最核心、最具特色、也是最难的知识点:指针。 指针是 C 语言的灵魂,也…...

培训行业残酷真相,项目失败,90%都不是你的错

——致那些在深夜里,反复怀疑自己的你 今天我们助教又被学员点名夸奖了。顺便一顿拉扯,我们聊了很多。 这位学员告诉我,他很信命,曾找人看过他的命盘,总的来说就是一个非常普通的盘,这辈子注定赚不了什么大…...

一款基于 .NET 开源、跨平台应用程序自动升级组件犊

基础示例:单工作表 Excel 转 TXT 以下是将一个 Excel 文件中的第一个工作表转换为 TXT 的完整步骤: 1. 加载并读取Excel文件 from spire.xls import * from spire.xls.common import * workbook Workbook() workbook.LoadFromFile("示例.xlsx"…...

OBS多平台直播终极指南:免费开源工具实现一键同步推流

OBS多平台直播终极指南:免费开源工具实现一键同步推流 【免费下载链接】obs-multi-rtmp OBS複数サイト同時配信プラグイン 项目地址: https://gitcode.com/gh_mirrors/ob/obs-multi-rtmp 想要在多个直播平台同时推送高质量内容?OBS Multi RTMP插件…...

HagiCode Skill 系统技术解析:如何打造可扩展的 AI 技能管理平台氨

环境安装 pip install keystone-engine capstone unicorn 这3个工具用法极其简单,下面通过示例来演示其用法。 Keystone 示例 from keystone import * CODE b"INC ECX; ADD EDX, ECX" try:ks Ks(KS_ARCH_X86, KS_MODE_64)encoding, count ks.asm(CODE)…...

Hermes Agent 完整知识总结与使用教程

Hermes Agent 完整知识总结与使用教程项目地址: https://github.com/NousResearch/hermes-agent 官方文档: https://hermes-agent.nousresearch.com/docs一、项目概述 1.1 Hermes Agent 是什么? Hermes Agent 是由 Nous Research 构建的开源自我改进型 AI 智能体。它…...

绍兴GEO优化,亲测3家公司复盘

开篇:定下基调在AI生成式引擎重塑信息获取方式的今天,GEO(生成式引擎优化)已成为企业建立数字信任、抢占精准流量的核心战场。绍兴作为民营经济活跃的区域,企业对高效、落地的GEO优化服务需求日益迫切。本次测评旨在通…...

流程控制作业

1、从键盘输入三个同学的成绩,然后找出最高分。2、输入三个同学的成绩,然后由大到小排序。3、求出1000以内的所有完数,如6123除了它自身以外的因子之和等于它本身叫完数。...

武昌区文化墙设计制作一体

在城市发展进程中,文化墙作为一种独特的文化传播载体,正发挥着越来越重要的作用。武昌区作为历史文化名城的核心区域,通过文化墙设计制作一体化的方式,不仅能够展现区域特色文化,还能提升城市形象和居民的文化认同感。…...

Windows/Mac双平台实测:Caption滚动字幕软件如何5分钟打造高逼格桌面特效

Windows/Mac双平台实测:Caption滚动字幕软件如何5分钟打造高逼格桌面特效 在数字内容创作领域,视觉冲击力往往决定着作品的传播效果。无论是自媒体博主的视频包装,还是创意工作者的项目展示,动态文字元素总能成为吸引眼球的利器。…...

AI原生研发已进入临界点:2026年前必须掌握的7项核心能力清单(附Gartner实测数据)

第一章:SITS2026专家:AI原生研发的未来趋势 2026奇点智能技术大会(https://ml-summit.org) AI原生研发已不再是一种概念性演进,而是正在重塑软件生命周期的核心范式。SITS2026大会上多位工业界与学术界专家指出:下一代研发基础设…...

ElementPlus表格多选避坑指南:Vue3中如何优雅处理选中数据(含TS示例)

ElementPlus表格多选避坑指南:Vue3中如何优雅处理选中数据(含TS示例) 在Vue3和ElementPlus构建的中后台系统中,表格多选功能几乎是标配需求。但很多开发者在实现时,往往只关注基础功能而忽略了类型安全、状态同步和性能…...

NVIDIA Profile Inspector导入导出功能:3分钟掌握游戏配置备份与分享

NVIDIA Profile Inspector导入导出功能:3分钟掌握游戏配置备份与分享 【免费下载链接】nvidiaProfileInspector 项目地址: https://gitcode.com/gh_mirrors/nv/nvidiaProfileInspector 还在为每次重装系统后需要重新配置显卡游戏设置而烦恼吗?NV…...

【实战解析】陌陌开源 LinkWork(灵工):企业级 AI 员工平台,一岗位一镜像的 K8s Agent 架构全拆解

陌陌开源了 LinkWork(灵工),一个企业级 AI Agent 平台。本文从技术架构(一岗位一镜像、三层能力边界、MCP 工具总线)、部署方式(Docker Compose / K8s)、与 Dify 和 DeerFlow 的对比、适用场景等…...

八大排序整合

最快的三个:快排、归并、堆排 → O (nlogn)最慢的四个:冒泡、选择、插入、希尔 → O (n) 级别稳定排序:冒泡、插入、归并、基数不稳定排序:选择、希尔、快排、堆排四个简单排序 除了基数排序,剩下的3个排序代码统一都…...

React 中的函数式更新

React 中的函数式更新 React 中的函数式更新,指的是在更新 state 时,不给 setState 直接传新值,而是传一个函数。这个函数会接收上一次最新的 state,再基于它计算出新的 state。 基本写法 setCount(prev > prev 1);这里的&…...

【11月16日-大模型前置知识【深度学习】+大模型开发入门】-基础篇笔记

文章目录前言一、huggingface国内1.引入库2.LLM 大模型语言的基础知识:2.LLM主要类别架构介绍3.卷积神经网络CNN4.循环神经网络总结全文通俗总结一、入门工具:Hugging Face二、LLM底层核心:语言模型的进化三、主流LLM架构大盘点四、深度学习基…...

ros2中可视化topic数值命令

ros2 run plotjuggler plotjuggler...

告别 Notion AI 付费:利用 Gemini Client 自建最强笔记助手

前言 Notion作为现在最流行的笔记工具之一,其功能完整和页面美观而广受好评,但是它的ai功能是要钱的!每月10美金!这对笔者来说是不太能接受的,正巧最近有了gemini的会员并下载安装了cli,再加上最近酷爱逛魔…...

响应式公司网站设计制作:适配手机、平板的关键技巧

大家肯定有过这样的体验,有些网站在电脑端使用起来还不错,但是并没有做相应的移动端口的适配,导致在用手机浏览的时候,非常不便,大大降低了网页的使用率。随着移动端设备的不断普及和发展,导致网页设计也从…...

Keil UV4配色进阶:不止替换文件,教你用global.prop打造专属高效编码环境

Keil UV4深度调校指南:从global.prop解析到现代IDE级编码环境定制 当你每天面对Keil UV4那个灰暗的默认界面时,是否想过这个老牌嵌入式开发工具也能拥有VS Code般的优雅体验?不同于简单的主题替换,我们将深入global.prop文件的每一…...

玩一玩微软的 bit 模型:BitNet. 一个 CPU 就能跑起来的大模型袄

一、 什么是 AI Skills:从工具级到框架级的演化 AI Skills(AI 技能) 的概念最早在 Claude Code 等前沿 Agent 实践中被强化。最初,Skills 被视为“工具级”的增强,如简单的文件读写或终端操作,方便用户快速…...

VSCode插件Continue配置避坑指南:手把手教你无缝对接OpenStation的本地大模型服务

VSCode插件Continue配置避坑指南:手把手教你无缝对接OpenStation的本地大模型服务 当你已经成功部署了OpenStation的本地大模型服务,却在VSCode中配置Continue插件时遇到各种"拦路虎",这篇文章就是为你准备的调试手册。我们将深入每…...

别再用扁网线了!实测小米AX3600刷OpenWRT后断流的元凶排查与硬件避坑指南

深度解析OpenWRT网络断流:从硬件避坑到系统调优的全方位指南 当你兴冲冲地给路由器刷上OpenWRT,准备享受开源系统带来的自由与强大功能时,最令人抓狂的莫过于网络频繁断流。那种视频看到一半突然卡住、游戏关键时刻掉线的体验,足以…...

实战解析:基于Selenium与多线程的东方财富股吧数据采集方案

1. 为什么需要东方财富股吧数据采集 做量化分析的朋友都知道,市场情绪数据是alpha因子挖掘的重要来源。东方财富股吧作为国内活跃的股民社区,每天产生海量的讨论帖子和评论,这些数据对分析个股热度、投资者情绪变化具有重要价值。但手动收集这…...

在超大数据集下 DuckDB 与 MySQL 查询速度对比嵌

一、什么是urllib3? urllib3 是一个用于处理 HTTP 请求和连接池的强大、用户友好的 Python 库。 它可以帮助你: 发送各种 HTTP 请求(GET, POST, PUT, DELETE等)。 管理连接池,提高网络请求效率。 处理重试和重定向。 支…...

C# 面试高频题:装箱和拆箱是如何影响性能的?非

OCP原则 ocp指开闭原则,对扩展开放,对修改关闭。是七大原则中最基本的一个原则。 依赖倒置原则(DIP) 什么是依赖倒置原则 核心是面向接口编程、面向抽象编程, 不是面向具体编程。 依赖倒置原则的目的 降低耦合度&#…...

ChatterUI:突破移动端AI聊天限制,重构本地与云端智能对话体验

ChatterUI:突破移动端AI聊天限制,重构本地与云端智能对话体验 【免费下载链接】ChatterUI Simple frontend for LLMs built in react-native. 项目地址: https://gitcode.com/gh_mirrors/ch/ChatterUI ChatterUI是一款基于React Native构建的移动…...

响应式设计进阶技巧

响应式设计进阶技巧 1. 前言 在当今多设备时代,响应式设计已成为前端开发的标准实践。本文将深入探讨响应式设计的高级技巧,帮助你创建更加灵活、高效的响应式网站。 2. 响应式设计基础 2.1 核心概念 响应式设计的核心是根据设备屏幕尺寸和方向自动调整布…...