当前位置: 首页 > article >正文

STEP3-VL-10B从零开始:Ubuntu环境部署+Gradio启动+API服务验证全流程

STEP3-VL-10B从零开始Ubuntu环境部署Gradio启动API服务验证全流程你是不是对多模态AI模型很感兴趣想自己动手部署一个既能看懂图片又能和你聊天的智能助手今天我们就来一起搞定STEP3-VL-10B这个“小巨人”模型。别看它只有100亿参数在多项专业测试中它的表现能媲美甚至超过那些参数多它10到20倍的“大块头”模型。它能精准识别图片内容、解答复杂的数学图表问题、读懂文档里的文字甚至能理解屏幕界面元素。听起来很厉害但部署起来会不会很复杂别担心这篇文章就是为你准备的。我会手把手带你走完从零部署到实际使用的全过程让你在Ubuntu系统上轻松拥有一个强大的视觉语言模型。1. 部署前准备了解你的“新伙伴”在开始动手之前我们先花几分钟了解一下STEP3-VL-10B到底能做什么以及我们需要准备什么样的“舞台”来运行它。1.1 模型能力速览STEP3-VL-10B是阶跃星辰开源的一个轻量级多模态模型。轻量级是相对那些动辄几百亿、几千亿参数的模型来说的但它能力一点都不“轻”。它的核心本领包括视觉理解不仅能识别图片里有什么还能理解图片表达的意思和场景。复杂推理看到一张数学题的图表它能一步步推理出答案。文档OCR图片里的文字不管是打印体还是手写体它都能准确提取和理解。GUI界面理解能看懂软件界面、网页布局告诉你各个按钮是干什么的。性能表现如何用专业测试分数来说话可能有点抽象我换个方式讲在很多需要“看图说话”和“分析思考”的任务上这个100亿参数的模型能达到甚至超过那些1000亿到2000亿参数模型的效果。这意味着我们用更少的计算资源就能获得顶级的智能体验。1.2 硬件与软件要求要流畅运行STEP3-VL-10B你的电脑需要满足一些基本条件。我把它分成“最低配置”和“舒服配置”两类你可以对照自己的设备看看。硬件要求项目最低能跑起来推荐流畅体验显卡 (GPU)NVIDIA显卡显存 ≥ 24GB (比如RTX 4090)A100 (40GB/80GB) 或同级别专业卡内存 (RAM)32GB 或以上64GB 或以上CUDA版本12.x12.4 或更新版本简单解释一下显卡是关键模型运行主要靠显卡显存大小决定了模型能不能加载进来。24GB是门槛。内存是辅助大内存能让数据交换更顺畅避免卡顿。CUDA是环境这是NVIDIA显卡的计算平台版本要匹配。如果你的设备符合要求那我们就开始吧整个过程就像搭积木一步一步来很简单。2. 环境搭建与模型部署准备好了硬件接下来我们就要在Ubuntu系统上搭建运行环境并把模型“请”到我们的服务器上。我会尽量把每一步都讲清楚确保你跟着做就能成功。2.1 系统基础环境检查首先打开你的Ubuntu终端命令行界面我们检查并确保基础环境是OK的。确认Python版本模型需要Python 3.8到3.11之间的版本。在终端输入python3 --version如果显示类似Python 3.10.12就没问题。如果版本不对需要先安装或切换正确的Python版本。确认CUDA版本输入以下命令查看CUDA是否安装以及版本号nvcc --version或者nvidia-smi在输出的表格顶部通常会显示CUDA版本。确保是12.x版本。安装必要的系统工具我们更新一下软件包列表并安装一些后续可能需要的工具sudo apt update sudo apt install -y git wget curl build-essential2.2 获取模型与代码环境没问题现在我们把模型和它的“操作手册”代码下载下来。克隆官方代码仓库在终端中找一个你喜欢的目录比如在用户主目录~下然后执行git clone https://github.com/stepfun-ai/Step3-VL-10B.git cd Step3-VL-10B这会把所有必要的代码文件下载到当前目录的Step3-VL-10B文件夹里。创建并激活Python虚拟环境使用虚拟环境是个好习惯它能避免不同项目间的软件包冲突。python3 -m venv venv source venv/bin/activate执行成功后你会看到命令行提示符前面多了个(venv)表示你已经在这个独立的环境里了。安装Python依赖包项目提供了一个requirements.txt文件里面列出了所有需要的Python库。一键安装即可pip install -r requirements.txt这个过程可能会花几分钟到十几分钟取决于你的网速。耐心等待它完成。2.3 下载模型权重文件代码准备好了还需要最重要的部分——模型本身权重文件。这个文件比较大有好几十GB。方法一从Hugging Face下载推荐这是最直接的方式。你可以使用git-lfs来拉取大文件。# 确保安装了git-lfs sudo apt install -y git-lfs git lfs install # 克隆模型权重仓库在Step3-VL-10B目录外操作 cd ~ git clone https://huggingface.co/stepfun-ai/Step3-VL-10B克隆完成后你会得到一个包含模型文件的文件夹。你需要根据项目代码的说明将这些文件放置到代码目录指定的位置通常是Step3-VL-10B/models这样的子目录里。具体路径请查看项目README.md文件。方法二从ModelScope下载国内网络可能更快如果你在国内使用魔搭社区ModelScope下载速度可能更理想。pip install modelscope然后在Python脚本或交互式环境中使用以下代码下载from modelscope import snapshot_download model_dir snapshot_download(stepfun-ai/Step3-VL-10B)下载的路径会打印出来同样需要将文件放到代码指定的位置。重要提示下载模型权重是耗时最长的步骤请确保网络稳定并且磁盘有足够的空间至少100GB以上空闲空间。3. 启动Gradio WebUI拥有图形化聊天界面模型部署到位后我们就可以启动它了。首先我们来启动Gradio WebUI这是一个网页图形界面让你可以通过上传图片和打字来和模型对话非常直观。3.1 通过Supervisor启动最简方式如果你使用的是CSDN算力服务器或类似已经配置好环境的环境通常服务已经通过Supervisor工具自动管理起来了。这相当于有一个“管家”在后台帮你运行模型服务。如何访问WebUI在你的算力服务器管理界面右侧导航栏找到“快速访问”或“服务访问”类似的入口。找到对应端口7860的WebUI服务点击访问链接。点击后浏览器会打开一个新标签页地址类似https://gpu-podXXXX-7860.web.gpu.csdn.net/XXXX部分是你的服务器唯一标识每台都不同。如何管理Supervisor服务如果需要重启或查看服务状态可以通过SSH连接到服务器使用以下命令# 查看所有服务状态 supervisorctl status # 单独重启webui服务 supervisorctl restart webui # 停止webui服务 supervisorctl stop webui # 启动webui服务 supervisorctl start webui # 停止所有由supervisor管理的服务 supervisorctl stop all如何修改WebUI端口默认服务运行在7860端口。如果想换端口比如因为端口冲突需要修改启动脚本。找到脚本文件通常路径是/usr/local/bin/start-webui-service.sh编辑这个文件找到--port 7860这一行将7860改为你想要的端口号例如--port 8888。修改保存后重启服务使其生效supervisorctl restart webui3.2 手动启动Gradio WebUI如果你想更深入地了解启动过程或者在自定义环境里部署可以手动启动。确保在项目目录和虚拟环境中cd ~/Step3-VL-10B source venv/bin/activate执行启动命令python3 webui.py --host 0.0.0.0 --port 7860--host 0.0.0.0表示允许任何网络接口访问这样你才能通过浏览器远程访问。--port 7860指定服务端口可以按需修改。访问WebUI界面启动成功后终端会输出类似Running on local URL: http://0.0.0.0:7860的信息。本地访问直接在服务器上的浏览器打开http://localhost:7860远程访问在你的个人电脑浏览器中输入http://你的服务器IP地址:7860界面功能一览图片上传区域可以拖拽或点击上传图片。聊天输入框在这里输入你的问题。对话历史右侧或下方会显示你和模型的对话记录。发送按钮点击后模型就会分析图片并回答你的问题。现在你可以尝试上传一张图片然后问它“图片里有什么”或者“描述一下这张图片的场景”看看它的理解能力。4. 启动与验证OpenAI兼容API服务除了好用的网页界面STEP3-VL-10B还提供了标准的API服务。这意味着你可以像调用ChatGPT的API一样通过程序代码来使用它的多模态能力非常适合集成到你自己的应用或自动化脚本里。4.1 启动API服务API服务通常通过另一个脚本来启动。确保你还在项目目录和虚拟环境中。启动API服务器python3 -m step3_vl.serving.openai_api_server --host 0.0.0.0 --port 8000--port 8000指定了API服务的端口默认为8000你可以根据需要修改。启动成功后你会看到终端提示服务正在运行并监听指定的端口。4.2 验证API服务发送你的第一个请求服务跑起来了我们得试试它是不是真的在工作。最直接的方法就是用curl命令一个命令行工具模拟程序发送一个请求。测试1纯文本对话这个测试不涉及图片只验证最基本的文本对话功能是否正常。curl -X POST http://localhost:8000/v1/chat/completions \ -H Content-Type: application/json \ -d { model: Step3-VL-10B, messages: [ {role: user, content: 你好请介绍一下你自己。} ], max_tokens: 1024 }命令解释-X POST表示这是一个POST请求。http://localhost:8000/v1/chat/completions这是API的地址如果你在远程服务器上测试需要把localhost换成服务器的IP地址。-H Content-Type: application/json告诉服务器我们发送的数据格式是JSON。-d后面跟着的就是我们发送给模型的数据JSON格式。model: Step3-VL-10B指定要使用的模型。messages对话历史我们发送了一条用户消息。max_tokens限制模型回复的最大长度。期待的结果如果一切正常你会收到一个JSON格式的回复其中choices[0].message.content字段里就包含了模型的自我介绍。测试2多模态对话图片理解这才是重头戏测试模型能否看懂图片。这里有两种方式传递图片方式A通过互联网图片URL这是最简单的方式直接把图片的网络链接给模型。curl -X POST http://localhost:8000/v1/chat/completions \ -H Content-Type: application/json \ -d { model: Step3-VL-10B, messages: [ { role: user, content: [ { type: image_url, image_url: {url: https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/bee.jpg} }, {type: text, text: 描述这张图片} ] } ], max_tokens: 1024 }注意看content部分它是一个列表里面可以混合多种类型的内容。这里我们先给了一个type为image_url的图片然后给了一个type为text的问题。模型会先“看”图再回答问题。方式B通过Base64编码的本地图片更常见的情况是分析你自己电脑上的图片。你需要先将图片转换成Base64编码的字符串。在Linux/Mac上可以使用命令# 将图片转换为base64字符串并复制到剪贴板macOS openssl base64 -in your_image.jpg | pbcopy # 或者输出到文件 openssl base64 -in your_image.jpg -out encoded_image.txt在API请求中使用以下格式{ type: image_url, image_url: {url: data:image/jpeg;base64,这里替换成你的base64字符串} }将这里替换成你的base64字符串替换为你刚才生成的长字符串不需要换行。期待的结果模型会返回对图片的描述例如对于上面示例的小蜜蜂图片它可能会回复“这是一张蜜蜂的特写照片蜜蜂正在一朵紫色的花上采蜜。蜜蜂的身体是黄黑相间的翅膀清晰可见。图片背景虚化突出了蜜蜂和花朵的细节。”看到这样的回复就说明你的API服务完全正常既能聊天又能识图了5. 总结与后续探索恭喜你走到这一步你已经成功在Ubuntu系统上部署了强大的STEP3-VL-10B多模态模型并且掌握了两种使用它的方式直观的网页聊天界面和灵活的编程接口。5.1 核心步骤回顾让我们快速回顾一下今天的成果环境准备确认了你的GPU、内存和CUDA环境符合要求。模型部署克隆了代码、创建了虚拟环境、安装了依赖并下载了核心的模型权重文件。启动WebUI学会了通过Supervisor或手动命令启动Gradio图形界面可以通过上传图片进行交互式对话。验证API服务启动了OpenAI兼容的API服务器并使用curl命令成功测试了纯文本和多模态图片理解的接口调用。整个过程就像组装一台精密仪器每一步都环环相扣。你现在拥有的是一个具备顶尖多模态理解能力的本地AI助手。5.2 接下来可以做什么部署成功只是开始这里有一些方向供你探索深入应用开发利用API服务你可以将它集成到你的网站、移动应用或自动化工作流中。比如做一个自动分析产品截图并生成描述的工具或者一个帮助视障人士描述周围环境的辅助应用。尝试更多功能STEP3-VL-10B还支持文档理解、图表数据分析、屏幕界面解析等。试着上传更复杂的图片比如带表格的财报、软件操作流程图看看它的表现。性能调优如果你对推理速度有更高要求可以研究一下项目文档中关于量化使用更少内存运行模型或使用TensorRT等推理后端加速的方法。关注社区模型的GitHub仓库和Hugging Face页面是获取更新、讨论问题和学习案例的好地方。5.3 遇到问题怎么办技术探索路上难免遇到坑这里有几个排查思路检查日志无论是WebUI还是API服务启动时在终端输出的日志信息是首要的排查依据错误信息通常会直接显示在这里。确认端口确保你访问的端口号7860 8000和服务器防火墙设置是正确的没有被阻挡。模型路径如果启动失败最常见的问题之一是模型权重文件没有放在代码期望的正确路径下。请仔细核对项目README中的说明。依赖冲突如果遇到奇怪的Python库报错尝试在全新的虚拟环境中严格按照requirements.txt重新安装依赖。希望这篇详细的指南能帮助你顺利启航在STEP3-VL-10B的世界里探索出更多有趣和有用的应用。动手实践是学习AI最好的方式现在就开始你的多模态AI之旅吧获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

STEP3-VL-10B从零开始:Ubuntu环境部署+Gradio启动+API服务验证全流程

STEP3-VL-10B从零开始:Ubuntu环境部署Gradio启动API服务验证全流程 你是不是对多模态AI模型很感兴趣,想自己动手部署一个既能看懂图片又能和你聊天的智能助手?今天,我们就来一起搞定STEP3-VL-10B这个“小巨人”模型。 别看它只有…...

上智院×魔搭×Datawhale:《AI4S实战派》教你用AI全面提升科研生产力

“论文代码下下来,环境配了两天,连import都报错。”“生成了个新材料结构,结果DFT一算——能量高得离谱,根本站不住!”“蛋白质对接得分贼高,湿实验一做,全军覆没……”“想自动读文献&#xff…...

Qwen3-14B-INT4-AWQ开发基础:GitHub使用教程与团队协作规范

Qwen3-14B-INT4-AWQ开发基础:GitHub使用教程与团队协作规范 1. 为什么AI开发者需要掌握GitHub 在AI项目开发中,代码管理往往是最容易被忽视的环节。想象一下这样的场景:你和团队花了三个月训练Qwen3-14B-INT4-AWQ模型,突然发现上…...

Stable Diffusion XL 1.0开源模型新实践:灵感画廊GitHub仓库结构导读

Stable Diffusion XL 1.0开源模型新实践:灵感画廊GitHub仓库结构导读 1. 项目概览:当AI艺术遇见诗意交互 灵感画廊(Atelier of Light and Shadow)是一个基于Stable Diffusion XL 1.0打造的沉浸式艺术创作工具。与常见的工业化AI…...

Phi-4-mini-reasoning人工智能伦理评估框架初探

Phi-4-mini-reasoning人工智能伦理评估框架初探 1. 引言:当AI开始监督AI 最近测试Phi-4-mini-reasoning模型时,发现一个有趣现象:这个擅长逻辑推理的小型模型,在分析其他AI生成内容时展现出惊人的"挑错"能力。它能准确…...

很多人对渗透测试工程师的认知停留在“模拟黑客攻击”,但实际工作内容远比这更全面。

在上一篇渗透测试入门指南发布后,很多粉丝私信我:“成为一名合格的渗透测试工程师,到底需要具备哪些硬实力?”“入行后该如何规划职业路径,避免原地踏步?”“企业招聘时更看重哪些技能和经验?”…...

OpenClaw模型热切换:Qwen3-14b_int4_awq与ChatGLM3动态路由实验

OpenClaw模型热切换:Qwen3-14b_int4_awq与ChatGLM3动态路由实验 1. 为什么需要模型热切换 上周我在处理一个自动化任务时遇到了典型困境:让OpenClaw帮我生成Python爬虫代码时,ChatGLM3给出的方案总是过于保守;而让它写产品文案时…...

Zephyr SMF轻量状态机实战与嵌入式开发优化

1. 项目概述"Zephyr SMF实战:几百行代码实现轻量状态机!"这个标题立刻让我想起了在嵌入式开发中经常遇到的状态管理难题。作为一名在RTOS领域摸爬滚打多年的开发者,我深知状态机在嵌入式系统中的重要性——它就像交通信号灯控制系统…...

泛微流程表单字段后面添加单位,且控制文本框长度确保单位显示不会换行

泛微流程表单字段后面添加单位 泛微流程表单可以在一个位置插入多个内容,这个时候就可以添加文本类型的单位上去。但是很多笔记本页面是会放大网页比例的,就会导致该单位会换行。所以可以通过控制单元格width的方式来避免文本框太长导致的换行 在模版中插…...

芒果文件编码转换工具 非常好用的代码转ANSI转UTF8格式小工具

群里的大佬 写的小工具 试了下很好用 下载链接...

优化开发流程:TensorFlow-v2.9镜像Docker化部署,比PyTorch传统安装更易维护

优化开发流程:TensorFlow-v2.9镜像Docker化部署,比PyTorch传统安装更易维护 1. 深度学习环境部署的痛点与解决方案 在深度学习项目开发中,环境配置往往是第一个拦路虎。想象一下这样的场景:你刚拿到一台全新的GPU服务器&#xf…...

ESPS USB MSC 调试全过程记录氏

背景 在软件开发的漫长旅途中,"构建"这个词往往让人又爱又恨。爱的是,一键点击,代码变成产品,那是程序员最迷人的时刻;恨的是,维护那一堆乱糟糟的构建脚本,简直是噩梦。 在很多项目中…...

Pixel Mind Decoder 创意应用展示:AI 驱动的情感化故事生成器

Pixel Mind Decoder 创意应用展示:AI 驱动的情感化故事生成器 1. 当AI学会感知情绪 你有没有想过,一个故事生成器不仅能理解文字,还能感知情绪?这就是我们最新开发的"情感化故事生成器"的核心能力。通过结合Pixel Min…...

开源大模型实战:StructBERT中文句子相似度工具在舆情监测中的关键词语义泛化应用

开源大模型实战:StructBERT中文句子相似度工具在舆情监测中的关键词语义泛化应用 1. 引言 你有没有遇到过这样的问题?在社交媒体上,用户对同一个产品功能,会用完全不同的词语来表达。比如,有人说“手机电池很耐用”&…...

Face Swap API 集成与使用指南

在当今数字化时代,图像处理技术越来越受到开发者的关注。Face Swap API 是一个强大的工具,它能够将目标图像中的人脸与源图像中的人脸进行交换。本文将详细介绍如何集成和使用 Face Swap API,帮助你快速上手这项技术。 简介 Face Swap API …...

工业水质快检试剂盒怎么选?这家国产品牌值得关注

在工业水处理与环境监测领域,快速、准确的水质检测是保障生产安全和环保合规的关键环节。传统实验室检测流程复杂、耗时长,难以满足现场快速筛查和应急决策需求。面对这一行业痛点,水质快检试剂盒凭借操作简便、响应迅速的特点,正…...

宝塔面板网站出现MySQL连接超时丢失怎么解决_合理增大max_allowed_packet和超时等待参数

MySQL连接超时丢失主因是max_allowed_packet过小或wait_timeout/interactive_timeout设置不当,需同步调大并重启MySQL验证生效。MySQL 连接超时丢失的典型表现页面报错 Lost connection to MySQL server during query 或 MySQL server has gone away,尤其…...

等离子处理机选型指南:从工艺需求到方案落地

在制造业转型升级的浪潮中,等离子表面处理技术正成为解决材料附着力难题的关键手段。面对市场上真空型、大气型、刻蚀型等多样化设备,企业该如何匹配自身需求?本文基于深圳市方瑞科技有限公司的实践案例,系统解析等离子处理机的选…...

TP8308内置 MOS 平均电流型 LED 降压恒流驱动器

概述 TP8308 是一款工作在固定关断时间控制模式的降压型LED 恒流驱动器,用于高效地驱动多颗 LED。TP8308 采用了平均电流型的闭环恒流方式,系统应用时输出电流对电感变化不敏感。这极大的提高了输出电流的恒流精度,特别适用于 5~100V 输入电压…...

Phi-4-mini-reasoning辅助软件测试:智能生成测试用例与缺陷推理

Phi-4-mini-reasoning辅助软件测试:智能生成测试用例与缺陷推理 1. 引言:当AI遇见软件测试 "昨天又加班到凌晨,就为了赶测试用例..."这是测试工程师小王的日常吐槽。在软件测试领域,编写全面的测试用例和发现潜在缺陷…...

Microsoft Agent Framework Skills 执行 Scripts(实战指南)珊

本文能帮你解决什么? 1. 搞懂FastAPI异步(async/await)到底在什么场景下能真正提升性能。 2. 掌握在FastAPI中正确使用多线程处理CPU密集型任务的方法。 3. 避开常见的坑(比如阻塞操作、数据库连接池耗尽、GIL限制)。 …...

行李包安检的设计(论文+CAD图纸+proe三维+SolidWorks三维图+ANSYS源文件+论文答辩PPT)

行李包安检系统是保障公共安全的关键环节,其设计需兼顾检测效率、结构稳定性与操作便捷性。通过系统整合CAD图纸、ProE三维模型、SolidWorks三维图及ANSYS源文件,可实现从二维布局到三维结构再到力学性能的全方位优化。CAD图纸用于精准规划设备整体轮廓与…...

GraphRAG 安装与使用教程

一、GraphRAG 简介 GraphRAG(Graph Retrieval-Augmented Generation)是由微软研究院开发的基于知识图谱的检索增强生成框架。它通过构建结构化的知识图谱来增强大语言模型(LLM)的推理能力,相比传统 RAG 方法在处理复杂…...

灵毓秀-牧神-造相Z-Turbo创作实战:如何写出高质量提示词生成精美图片

灵毓秀-牧神-造相Z-Turbo创作实战:如何写出高质量提示词生成精美图片 1. 认识灵毓秀-牧神-造相Z-Turbo模型 1.1 模型特点与优势 灵毓秀-牧神-造相Z-Turbo是一款专为《牧神记》IP定制的文生图AI模型,基于Z-Image-Turbo架构进行深度优化。与通用文生图模…...

用LiuJuan Z-Image做创意设计:生成概念艺术人像与角色设定图

用LiuJuan Z-Image做创意设计:生成概念艺术人像与角色设定图 你是否曾经为角色设计而苦恼?无论是游戏角色、小说人物还是品牌IP形象,传统设计流程往往需要反复修改草图、调整细节,耗费大量时间。现在,借助LiuJuan Z-I…...

RetinaFace在合影场景中的应用:多人脸检测与关键点绘制实战

RetinaFace在合影场景中的应用:多人脸检测与关键点绘制实战 1. 合影场景中的人脸检测挑战 在合影场景中,人脸检测面临着诸多独特挑战: 密集人脸:多人聚集导致人脸间距小,容易造成检测框重叠或漏检尺度差异&#xff…...

HarmonyOS `AnimatableArithmetic<T>` 接口:拿捏自定义数据的“动画灵魂”

HarmonyOS AnimatableArithmetic<T> 接口&#xff1a;拿捏自定义数据的“动画灵魂”做客户端或者前端开发的兄弟&#xff0c;多半都和动画打过交道。 简单的位移、透明度好办&#xff0c;系统自带插值器一键搞定。但要是碰上点儿复杂的业务——比如要求一个组件的背景色在…...

OpenClaw自动化测试:Qwen3.5-9B验证APP多语言截图

OpenClaw自动化测试&#xff1a;Qwen3.5-9B验证APP多语言截图 1. 为什么需要自动化多语言测试 去年参与一个跨国APP项目时&#xff0c;我遇到了一个棘手问题&#xff1a;每次发版前需要人工检查12种语言的界面翻译一致性。团队成员需要手动截图、对照原文、记录差异&#xff…...

小白也能懂:立知多模态重排序模型,解决‘搜得到但排不准’的爬虫难题

小白也能懂&#xff1a;立知多模态重排序模型&#xff0c;解决搜得到但排不准的爬虫难题 1. 为什么我们需要多模态重排序&#xff1f; 你有没有遇到过这样的情况&#xff1a;在电商网站搜索"猫咪玩球"&#xff0c;结果前几条却是猫粮、猫窝&#xff0c;甚至完全不相…...

AI读脸术与PyTorch方案对比:CPU推理速度谁更强?实战评测

AI读脸术与PyTorch方案对比&#xff1a;CPU推理速度谁更强&#xff1f;实战评测 1. 引言 你有没有想过&#xff0c;给一张照片&#xff0c;AI就能告诉你里面的人是男是女、大概多大年纪&#xff1f;听起来像是科幻电影里的场景&#xff0c;但现在&#xff0c;这已经是触手可及…...