当前位置: 首页 > article >正文

AI开发-python-langchain框架(--串行流程 )悼

一、前言什么是 OFA VQA 模型OFAOne For All是字节跳动提出的多模态预训练模型支持视觉问答、图像描述、图像编辑等多种任务其中视觉问答VQA是最常用的功能之一——输入一张图片和一个英文问题该模型仅支持英文模型就能输出对应的答案比如输入“瓶子”图片问题“What is the main subject?”输出“a water bottle”。本次部署使用 ModelScope 平台的 iic/ofa_visual-question-answering_pretrain_large_en 模型基于 Python 虚拟环境Miniconda部署全程在 Linux 环境下操作Windows 可参考命令略有差异。二、前置准备1. 环境基础系统LinuxUbuntu/CentOS 均可本次用 Ubuntu工具Miniconda用于创建独立虚拟环境避免环境污染Python 版本3.11亲测兼容3.9-3.11 均可不建议 3.12部分依赖不支持网络能访问 ModelScope、PyPI 源建议换清华源提速2. 提前说明本次部署的核心难点的是「依赖版本匹配」——ModelScope 平台的 OFA 模型会硬编码依赖版本运行时会自动卸载你安装的版本并强制安装指定版本很容易导致版本冲突其次是「输入格式适配」和「图片加载权限」问题这两个坑也很容易卡壳后面会详细说明。三、完整部署步骤一步都不能少步骤 1创建并激活虚拟环境关键避免环境污染为什么要创建虚拟环境因为不同模型的依赖版本差异很大比如本次 OFA 模型对 transformers、tokenizers 的版本要求很严格和其他模型可能冲突独立虚拟环境能隔离这些差异。打开终端执行以下命令全程复制即可# 1. 激活 Miniconda如果没配置环境变量先执行这个具体路径根据自己的 Miniconda 安装位置修改source /opt/miniconda3/bin/activate# 2. 创建虚拟环境环境名torch27Python 版本 3.11可自定义环境名conda create -n torch27 python3.11 -y# 3. 激活创建好的虚拟环境后续所有操作都要在这个环境里执行conda activate torch27执行成功后终端前缀会显示 (torch27)说明已经进入虚拟环境。步骤 2配置清华 PyPI 源提速避免下载依赖超时默认 PyPI 源在国外下载依赖很慢甚至会超时建议配置清华源执行以下命令pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple配置成功后后续用 pip 安装依赖会自动走清华源速度翻倍。步骤 3创建工作目录下载模型相关文件创建一个单独的工作目录用于存放脚本、图片等文件避免文件混乱# 1. 创建工作目录路径可自定义本次用 /root/workspace/ofa_visual-question-answeringmkdir -p /root/workspace/ofa_visual-question-answering# 2. 进入工作目录后续所有操作都在这个目录下cd /root/workspace/ofa_visual-question-answering步骤 4安装核心依赖重点版本必须完全匹配这是部署过程中最容易踩坑的一步OFA 模型对依赖版本要求极高尤其是 transformers、tokenizers、huggingface-hub 这三个库版本不匹配会直接导致模型无法初始化甚至报错。先给大家上「最终可用的依赖版本组合」亲测可复现避免踩坑tensorboardX2.6.4模型日志相关版本可兼容huggingface-hub0.25.2ModelScope 硬编码要求不能高也不能低transformers4.48.3ModelScope 硬编码要求对应 tokenizers 0.21.4tokenizers0.21.4必须和 transformers 4.48.3 匹配否则报错modelscope模型加载平台直接安装最新版即可Pillow、requests图片加载相关必备执行以下命令一次性安装所有依赖顺序不要乱避免版本冲突# 1. 先安装 tensorboardX无版本冲突放心装pip install tensorboardX2.6.4# 2. 安装 ModelScope 硬编码要求的核心依赖重点版本不能改pip install huggingface-hub0.25.2 tokenizers0.21.4 transformers4.48.3# 3. 安装 modelscope最新版即可负责加载 OFA 模型pip install modelscope# 4. 安装图片加载相关依赖Pillow 处理本地图片requests 处理在线图片pip install Pillow requests安装过程中如果出现「WARNING: Running pip as the root user」警告可忽略不影响功能这是提示用 root 用户运行 pip 可能有权限问题但不影响模型部署。安装完成后验证一下版本是否正确避免安装出错python -c import transformers, tokenizers, huggingface_hub; print(ftransformers: {transformers.__version__}); print(ftokenizers: {tokenizers.__version__}); print(fhuggingface-hub: {huggingface_hub.__version__})正常输出如下版本必须完全一致transformers: 4.48.3tokenizers: 0.21.4huggingface-hub: 0.25.2如果输出的版本不一致重新执行步骤 4 的安装命令确保版本正确。步骤 5禁用 ModelScope 自动依赖安装核心避坑操作这是最关键的避坑步骤ModelScope 加载 OFA 模型时会自动检查依赖版本如果发现版本和它硬编码的要求不一致会直接卸载你的版本并强制安装指定版本——哪怕你已经安装了正确的版本也会被覆盖导致之前的努力白费。所以我们需要设置环境变量禁用 ModelScope 自动安装/升级依赖执行以下命令# 禁用 ModelScope 自动安装依赖临时生效仅当前终端会话export MODELSCOPE_AUTO_INSTALL_DEPENDENCYFalseexport PIP_NO_INSTALL_UPGRADE1export PIP_NO_DEPENDENCIES1?? 注意如果后续新开终端、重新激活虚拟环境需要重新执行上面的命令临时生效如果想永久生效执行以下命令写入 bash 配置文件# 永久禁用自动依赖安装重启终端、重新激活环境也生效echo export MODELSCOPE_AUTO_INSTALL_DEPENDENCYFalse ~/.bashrcecho export PIP_NO_INSTALL_UPGRADE1 ~/.bashrcecho export PIP_NO_DEPENDENCIES1 ~/.bashrc# 使配置生效source ~/.bashrc步骤 6准备测试图片和运行脚本直观版新手友好脚本是核心之前踩过「输入格式错误」的坑所以这里直接给大家整理好「可直接运行、输出简洁、容错性强」的脚本只需修改图片路径和问题即可。6.1 准备测试图片将任意一张测试图片jpg/png 格式均可放到工作目录下命名为 test_image.jpg比如一张瓶子、猫、风景的图片如果没有本地图片也可以用在线公开图片 URL脚本已兼容。6.2 创建运行脚本test.py在工作目录下创建 test.py 脚本复制以下代码注释清晰可直接修改#!/usr/bin/env python3# -*- coding: utf-8 -*-OFA 视觉问答VQA模型 运行脚本直观版新手友好功能输入本地图片/在线图片 英文问题输出模型推理结果使用说明只需修改【核心配置区】的图片路径和问题无需修改其他代码import osimport sysfrom PIL import Imageimport requestsfrom io import BytesIOfrom modelscope.pipelines import pipelinefrom modelscope.utils.constant import Tasks# 核心配置区只需改这里新手重点关注# 1. 图片来源二选一本地路径优先级更高推荐用本地图片LOCAL_IMAGE_PATH ./test_image.jpg # 本地图片路径工作目录下的图片如./cat.jpg、./bottle.png# ONLINE_IMAGE_URL https://picsum.photos/600/400 # 备用公开测试图片URL无需下载直接加载# 2. 问答问题?? 注意该模型仅支持英文提问中文问题会输出无意义结果VQA_QUESTION What is the main subject in the picture? # 示例1图片的主要物体是什么# VQA_QUESTION What color is the object? # 示例2物体是什么颜色# VQA_QUESTION How many objects are there in the picture? # 示例3图片中有多少个物体# 工具函数无需修改封装好的功能def check_image_exists(path):检查本地图片是否存在避免路径错误导致加载失败if not os.path.exists(path):print(f? 错误本地图片文件不存在 → {path})print(请检查图片路径是否正确或替换为有效的图片文件)sys.exit(1)def load_image(image_source):加载图片兼容本地路径和在线URL返回PIL.Image对象模型要求的输入格式try:# 优先加载本地图片if os.path.exists(image_source):check_image_exists(image_source)img Image.open(image_source).convert(RGB) # 转为RGB格式避免灰度图报错print(f? 成功加载本地图片 → {image_source})# 加载在线图片备用避免本地图片缺失elif image_source.startswith((http://, https://)):response requests.get(image_source, timeout10) # 超时时间10秒response.raise_for_status() # 检查URL是否可访问避免403/404错误img Image.open(BytesIO(response.content)).convert(RGB)print(f? 成功加载在线图片 → {image_source})else:raise ValueError(? 图片来源错误必须是本地路径或合法的HTTP/HTTPS URL)return imgexcept Exception as e:print(f? 图片加载失败{str(e)})sys.exit(1)def init_vqa_model():初始化OFA VQA模型管道核心函数无需修改try:# 再次确认禁用自动依赖安装双重保险避免环境变量失效os.environ[MODELSCOPE_AUTO_INSTALL_DEPENDENCY] Falseos.environ[PIP_NO_INSTALL_UPGRADE] 1# 创建VQA模型管道?? trust_remote_codeTrue必须加适配OFA模型的自定义逻辑vqa_pipe pipeline(taskTasks.visual_question_answering, # 任务类型视觉问答modeliic/ofa_visual-question-answering_pretrain_large_en, # 模型名称model_revisionv1.0.0, # 模型版本固定v1.0.0避免版本兼容问题trust_remote_codeTrue # 关键参数允许加载模型的自定义代码)print(? OFA VQA模型初始化成功首次运行会自动下载模型耗时稍长耐心等待)return vqa_pipeexcept Exception as e:print(f? 模型初始化失败{str(e)})sys.exit(1)# 主逻辑无需修改执行推理if __name__ __main__:# 打印标题直观区分输出print(*60)print(?? OFA 视觉问答VQA模型 - 运行工具)print(*60)# 1. 初始化OFA VQA模型首次运行会自动下载模型约几百MB耐心等待vqa_model init_vqa_model()# 2. 确定图片来源优先本地本地不存在则用在线URLimage_source LOCAL_IMAGE_PATH if os.path.exists(LOCAL_IMAGE_PATH) else globals().get(ONLINE_IMAGE_URL, )if not image_source:print(? 错误未配置有效的图片来源请修改【核心配置区】的图片路径/URL)sys.exit(1)# 3. 加载图片转为模型要求的PIL.Image对象img load_image(image_source)# 4. 执行模型推理核心步骤print(f\n?? 提问{VQA_QUESTION})print(?? 模型推理中...推理速度取决于电脑配置约1-5秒)try:# 模型输入格式(PIL.Image对象, 英文问题文本) → 元组格式重点不能用字典result vqa_model((img, VQA_QUESTION))# 简化输出只提取核心答案去掉冗余信息新手更直观answer result.get(text, [No answer found])[0] # 提取最置信的第一个答案print(\n *60)print(f? 推理成功)print(f?? 图片{image_source})print(f?? 问题{VQA_QUESTION})print(f? 答案{answer})print(*60)except Exception as e:print(f\n? 推理失败{type(e).__name__} - {str(e)})sys.exit(1)步骤 7运行脚本查看推理结果所有准备工作完成后执行以下命令运行脚本python test.py?? 注意首次运行脚本时模型会自动从 ModelScope 下载约几百MB耗时稍长耐心等待即可后续运行会复用已下载的模型速度会很快。运行成功后输出如下直观简洁新手能快速看到结果?? OFA 视觉问答VQA模型 - 运行工具? OFA VQA模型初始化成功首次运行会自动下载模型耗时稍长耐心等待? 成功加载本地图片 → ./test_image.jpg?? 提问What is the main subject in the picture??? 模型推理中...推理速度取决于电脑配置约1-5秒? 推理成功?? 图片./test_image.jpg?? 问题What is the main subject in the picture?? 答案a water bottle在这里插入图片描述到这里OFA 视觉问答模型就部署成功并运行啦四、部署过程中遇到的所有坑现象原因解决方案这部分是重点我把部署过程中踩过的所有坑都整理出来每个坑都对应「现象原因解决方案」大家遇到相同问题时直接对照解决即可节省时间。坑1依赖版本冲突最常见踩了3次现象1ImportError: tokenizers0.20,0.21 is required...ImportError: tokenizers0.20,0.21 is required for a normal functioning of this module, but found tokenizers0.19.1.原因transformers 版本和 tokenizers 版本不匹配比如 transformers 4.46.1 要求 tokenizers 0.20.x而安装了 0.19.1。解决方案卸载当前 tokenizers安装对应版本比如 transformers 4.46.1 → tokenizers 0.20.1transformers 4.48.3 → tokenizers 0.21.4命令pip uninstall -y tokenizerspip install tokenizers0.21.4 # 对应transformers 4.48.3现象2ImportError: cannot import name GGUF_CONFIG_MAPPING from transformers.integrationsImportError: OfaForAllTasks: cannot import name GGUF_CONFIG_MAPPING from transformers.integrations原因transformers 版本过低比如 4.38.2该版本的 integrations 模块中没有导出 GGUF_CONFIG_MAPPING而模型代码引用了这个变量。解决方案安装 transformers 4.48.3ModelScope 硬编码要求兼容 GGUF_CONFIG_MAPPING命令pip uninstall -y transformerspip install transformers4.48.3现象3运行脚本时依赖被自动卸载并重新安装原因没有禁用 ModelScope 自动依赖安装ModelScope 检测到依赖版本和它硬编码的要求不一致会自动卸载你的版本并强制安装指定版本。解决方案设置环境变量禁用自动依赖安装参考步骤 5临时生效或永久生效均可。坑2图片加载失败403 Forbidden 错误现象requests.exceptions.HTTPError: 403 Client Error: Forbidden for url: ...requests.exceptions.HTTPError: 403 Client Error: Forbidden for url: http://modelscope-open.oss-cn-hangzhou.aliyuncs.com/test/images/visual_question_answering.png原因使用了 ModelScope 官方的测试图片 URL该 URL 权限变更或失效无法访问403 权限拒绝。解决方案替换为本地图片或公开可访问的在线图片 URL脚本已兼容两种图片来源参考步骤 6.1 和 6.2。坑3输入格式错误text 相关错误现象运行出错text 或 KeyError: text原因模型输入格式不符合要求OFA VQA 模型要求输入为「(PIL.Image对象, 英文问题文本)」的元组格式而不是字典比如 {image: ..., question: ...}。解决方案按照脚本中的格式将输入改为元组PIL.Image对象 问题文本脚本已封装好该逻辑无需手动修改参考步骤 6.2 中的主逻辑部分。坑4模型初始化失败缺少 trust_remote_codeTrue现象模型初始化时报错“无法加载自定义代码”或“模型结构不匹配”原因OFA 模型有自定义的预处理和推理逻辑创建 pipeline 时没有添加 trust_remote_codeTrue 参数无法加载这些自定义代码。解决方案创建 pipeline 时添加 trust_remote_codeTrue 参数参考步骤 6.2 中的 init_vqa_model 函数。坑5警告信息干扰非错误可忽略现象运行脚本时出现以下警告信息# 警告1pkg_resources 弃用警告UserWarning: pkg_resources is deprecated as an API. See ...# 警告2TRANSFORMERS_CACHE 弃用警告FutureWarning: Using TRANSFORMERS_CACHE is deprecated and will be removed in v5 of Transformers.# 警告3TensorFlow 相关警告cuDNN、cuFFT 等E external/local_xla/xla/stream_executor/cuda/cuda_dnn.cc:9261] Unable to register cuDNN factory: ...原因这些都是非功能性警告不影响模型运行——pkg_resources 弃用是 ModelScope 的依赖问题TRANSFORMERS_CACHE 弃用是 transformers 的版本提示TensorFlow 警告是缺少相关插件不影响 CPU 推理。解决方案直接忽略无需处理不影响模型的推理功能。五、总结与后续优化建议1. 部署总结本次 OFA 视觉问答模型部署的核心要点环境隔离必须用虚拟环境避免依赖冲突版本匹配transformers4.48.3 tokenizers0.21.4 huggingface-hub0.25.2版本不能改禁用自动依赖设置环境变量避免 ModelScope 自动覆盖依赖版本输入格式必须是PIL.Image对象, 英文问题的元组格式图片来源避免使用失效的 URL优先用本地图片。按照上面的步骤操作就能成功部署并运行模型输出正确的视觉问答结果。萄对坎肿

相关文章:

AI开发-python-langchain框架(--串行流程 )悼

一、前言:什么是 OFA VQA 模型? OFA(One For All)是字节跳动提出的多模态预训练模型,支持视觉问答、图像描述、图像编辑等多种任务,其中视觉问答(VQA)是最常用的功能之一——输入一张…...

实测Z-Image-Turbo_UI界面:生成效果展示与使用技巧分享

实测Z-Image-Turbo_UI界面:生成效果展示与使用技巧分享 1. 快速上手:UI界面初体验 Z-Image-Turbo_UI界面提供了一种极其简单的图像生成方式,无需复杂配置即可快速体验AI绘画的魅力。启动服务后,只需在浏览器中输入http://localh…...

【LangChain 0.3 - 1 - 常用组件】 + 可运行 Agent 实战

一、常用核心组件 1. 聊天模型 ChatModels from langchain_openai import ChatOpenAI# 初始化大模型(大脑) llm ChatOpenAI(model"gpt-3.5-turbo",api_key"sk-xxxxxxxxxxxxxxxx", # 替换为自己的API Keytemperature0.1, # 数值…...

每日安全情报报告 · 2026-04-09

每日安全情报报告 2026-04-09 发布时间:2026-04-09 11:33 报告周期:近 24–48 小时 风险标注:🔴 严重(CVSS ≥ 9.0)|🟠 高危(CVSS 7.0–8.9)|&am…...

周末收听:中国之声DRM短波信号实收记录

本周末(4月4日)在成都用接收了CNR中国之声的DRM短波广播,记录了13825 kHz和13810 kHz两个频率的信号数据。一个从北京发射,一个从昆明发射,传播路径和信号特征差异明显。接收条件接收地点:成都。接收时间&a…...

5分钟搞定Linux打印机驱动:foo2zjs终极配置指南

5分钟搞定Linux打印机驱动:foo2zjs终极配置指南 【免费下载链接】foo2zjs A linux printer driver for QPDL protocol - copy of http://foo2zjs.rkkda.com/ 项目地址: https://gitcode.com/gh_mirrors/fo/foo2zjs 你是否曾经在Linux系统上为打印机驱动而烦恼…...

购物团截图自动马赛克地址,手机号码

订单截图隐私信息自动脱敏工具一、工具概述 本工具是基于 Python OCR 技术开发的电商订单截图隐私自动脱敏工具,针对淘宝、京东、拼多多等主流电商平台订单截图,自动识别并对收货地址、手机号码等敏感信息进行马赛克打码,实现隐私保护。 工具…...

OpenClaw备份恢复方案:千问3.5-35B-A3B-FP8任务配置的迁移技巧

OpenClaw备份恢复方案:千问3.5-35B-A3B-FP8任务配置的迁移技巧 1. 为什么需要备份OpenClaw配置 上周我的主力开发机突然硬盘故障,导致所有数据丢失。最让我痛心的不是代码,而是精心调校了三个月的OpenClaw自动化工作流——包括对接千问3.5模…...

2026开发者App质量监控工具盘点与选型

2026开发者App质量监控工具盘点与选型 质量导航君 头像: 粉丝数:9.6万|获赞数:42.7万 专注开发者工具选型科普,长期输出真实测评与场景解法,帮你在繁杂方案中快速锁定匹配工具。本期聚焦App质量监控领域&a…...

三个角度分析AI自动写文+自动发布自媒体矩阵提效实测

搞自媒体干久了,有谁没动过心思琢磨能不能让机器来帮忙写、帮忙发?尤其是你手头上攥着五六个账号,天天瞅着不同平台的规则、排版、发布时间的安排,脑袋都快给弄炸。最近我试了这么一个流程:用人工智能自动去写文章然后…...

Pyplot在图表显示中文--配置文件法

希望所有 Matplotlib 图表都默认使用黑体、红色线条、圆形标记步骤1:找到/创建配置文件 运行以下代码找到配置文件路径: import matplotlib print(matplotlib.matplotlib_fname())假设输出:C:\Users\你的用户名\.matplotlib\matplotlibrc 如果…...

**标题:MLOps实战进阶:用Python+Docker+Kubernetes打造自动化模型部署流水

标题:MLOps实战进阶:用PythonDockerKubernetes打造自动化模型部署流水线 在现代机器学习工程中,模型从实验到上线的全流程自动化已成为企业级落地的关键瓶颈。传统手动部署模式不仅效率低下,还容易因环境差异导致“在我电脑上能跑…...

【Swoole微服务适配黄金法则】:基于127个真实项目数据验证的8项兼容性阈值指标(含QPS衰减预警公式)

第一章:Swoole微服务适配黄金法则的提出背景与核心价值随着 PHP 生态在高并发、低延迟场景中的持续演进,传统 FPM 架构在微服务化进程中暴露出连接开销大、进程模型僵化、协程支持缺失等系统性瓶颈。Swoole 作为 PHP 原生高性能网络引擎,凭借…...

SDMatte多GPU并行推理配置:提升企业级批量处理吞吐量

SDMatte多GPU并行推理配置:提升企业级批量处理吞吐量 1. 为什么需要多GPU并行推理 当企业需要处理大批量图片时,单张GPU往往难以满足需求。想象一下,你有一家电商公司,每天需要处理上万张商品图片的背景替换。如果只用一张GPU&a…...

仅用3行代码重构I/O密集型API,PHP异步响应时间从1.2s降至86ms(真实电商订单中心压测数据)

第一章:PHP异步I/O性能的本质瓶颈与重构价值PHP 传统同步阻塞模型在高并发 I/O 场景下存在根本性性能瓶颈:每个请求独占一个进程或线程,当执行文件读写、数据库查询或 HTTP 调用时,整个执行流被挂起,CPU 空转等待内核返…...

GPT-6曝光4月14日发布:性能暴涨40%,200万Token,AI真正进入能干活时代

4月14日,OpenAI将发布迄今最强大的AI模型多个独立消息源已确认:OpenAI下一代旗舰模型GPT-6,代号"Spud"(土豆),预计在2026年4月14日正式发布。核心数据:相比GPT-4o性能提升超40%&#…...

QEMU v8.2.4 源码深度剖析:从编译到核心模块的实战指南

1. 从零开始:编译属于你自己的QEMU v8.2.4 如果你和我一样,对虚拟化技术充满好奇,总想扒开QEMU这头“巨兽”的肚子看看里面到底是怎么运转的,那么从源码编译开始,绝对是最扎实的第一步。这不仅仅是得到一个可执行文件&…...

CPU性能优化实战指南:从问题诊断到深度调优

CPU性能优化实战指南:从问题诊断到深度调优 【免费下载链接】CPUDoc 项目地址: https://gitcode.com/gh_mirrors/cp/CPUDoc 问题诊断:为什么相同硬件配置性能差异显著? 隐藏的性能损耗:现代CPU调度困境 现代处理器如同拥…...

如何让旧款Mac重获新生:OpenCore Legacy Patcher的系统延续方案

如何让旧款Mac重获新生:OpenCore Legacy Patcher的系统延续方案 【免费下载链接】OpenCore-Legacy-Patcher Experience macOS just like before 项目地址: https://gitcode.com/GitHub_Trending/op/OpenCore-Legacy-Patcher 当你面对一台性能尚可但被苹果官方…...

终极nvm-windows完整指南:Windows平台Node.js版本管理专业解决方案

终极nvm-windows完整指南:Windows平台Node.js版本管理专业解决方案 【免费下载链接】nvm-windows A node.js version management utility for Windows. Ironically written in Go. 项目地址: https://gitcode.com/gh_mirrors/nv/nvm-windows nvm-windows是Wi…...

Papa Parse CSV解析错误终极诊断指南:从问题定位到完美修复的完整实践

Papa Parse CSV解析错误终极诊断指南:从问题定位到完美修复的完整实践 【免费下载链接】PapaParse Fast and powerful CSV (delimited text) parser that gracefully handles large files and malformed input 项目地址: https://gitcode.com/gh_mirrors/pa/PapaP…...

3个简单步骤入门连续血糖监测研究:Awesome-CGM完整指南

3个简单步骤入门连续血糖监测研究:Awesome-CGM完整指南 【免费下载链接】Awesome-CGM List of CGM datasets 项目地址: https://gitcode.com/gh_mirrors/aw/Awesome-CGM 在糖尿病研究和健康科技领域,连续血糖监测(CGM)数据…...

如何用Input Leap实现跨设备控制?打造无缝多设备协作体验

如何用Input Leap实现跨设备控制?打造无缝多设备协作体验 【免费下载链接】input-leap Open-source KVM software 项目地址: https://gitcode.com/gh_mirrors/in/input-leap 在多设备办公环境中,频繁切换键盘鼠标不仅打断工作流,更降低…...

Nginx 学习总结式

1. 引入 在现代 AI 工程中,Hugging Face 的 tokenizers 库已成为分词器的事实标准。不过 Hugging Face 的 tokenizers 是用 Rust 来实现的,官方只提供了 python 和 node 的绑定实现。要实现与 Hugging Face tokenizers 相同的行为,最好的办法…...

OpenProject API集成深度解析:构建企业级工作流自动化引擎

OpenProject API集成深度解析:构建企业级工作流自动化引擎 【免费下载链接】openproject OpenProject is the leading open source project management software. 项目地址: https://gitcode.com/GitHub_Trending/op/openproject 在当今的软件开发与项目管理…...

3种跨平台文件系统解决方案:打破设备壁垒的存储策略与实践指南

3种跨平台文件系统解决方案:打破设备壁垒的存储策略与实践指南 【免费下载链接】Free-NTFS-for-Mac Nigate: An open-source NTFS utility for Mac. It supports all Mac models (Intel and Apple Silicon), providing full read-write access, mounting, and manag…...

Honey Select 2 HF Patch整合方案:插件优化工具使用指南

Honey Select 2 HF Patch整合方案:插件优化工具使用指南 【免费下载链接】HS2-HF_Patch Automatically translate, uncensor and update HoneySelect2! 项目地址: https://gitcode.com/gh_mirrors/hs/HS2-HF_Patch Honey Select 2 HF Patch是一款专为《Honey…...

案例速递|手机摄像头模组底壳检测

东莞市沃德普自动化科技有限公司 www.wordop.com 检测背景: 在手机摄像头模组的精密制造流程中,模组底壳是镜头、CMOS传感器、VCM马达的核心承载与定位基准,其表面质量直接决定模组的装配精度、光学性能与长期使用可靠性。 检测需求&#x…...

[Linux][虚拟串口]x一个特殊的字节贤

简介 langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。 环境配置 安装langchain框架 pip install langchain langchain-community 其中…...

DataCap实战指南:从多源数据整合到智能可视化的全流程解析

1. DataCap入门:为什么你需要这个数据瑞士军刀 第一次接触DataCap是在三年前的一个企业数据治理项目里。当时客户有十几个不同系统的数据需要整合,从传统的MySQL到实时分析的ClickHouse,还有一堆Excel和CSV文件。团队折腾了两周都没搞定数据…...