当前位置: 首页 > article >正文

YOLO26保姆级教程:从环境搭建到模型训练,小白也能轻松上手

YOLO26保姆级教程从环境搭建到模型训练小白也能轻松上手1. 引言为什么选择YOLO26如果你对计算机视觉感兴趣或者工作中需要处理图片、视频里的物体识别那你一定听说过YOLO这个名字。它就像一个视力超群的“火眼金睛”能在眨眼间找出图片里所有的目标物体并告诉你在哪里。YOLO26是这个系列的最新成员它在速度和精度上又向前迈进了一大步。但很多朋友在尝试时往往卡在了第一步环境配置。各种依赖包版本冲突、CUDA安装失败、代码跑不起来……这些问题足以劝退一个满怀热情的新手。好消息是现在你不用再为这些头疼了。CSDN星图平台推出的“最新YOLO26官方版训练与推理镜像”已经帮你把所有环境都打包好了。你只需要点几下鼠标就能获得一个开箱即用的YOLO26开发环境。今天我就带你从零开始手把手走完从环境启动到训练出自己模型的完整流程。即使你之前没接触过深度学习也能跟着这篇教程轻松上手。2. 环境准备一分钟启动你的专属AI实验室2.1 镜像启动与环境激活在CSDN星图平台找到“最新YOLO26官方版训练与推理镜像”并启动后你会看到一个类似下图的JupyterLab界面。这是我们接下来所有操作的主战场。启动完成后界面是这样的首先我们需要激活正确的Python环境。在终端Terminal里输入以下命令conda activate yolo看到命令行前缀从(base)或(torch25)变成(yolo)就说明环境切换成功了。为什么一定要激活这个环境因为这个镜像预装了所有YOLO26运行需要的“零件”比如PyTorch 1.10.0、CUDA 12.1、Python 3.9.5还有opencv、numpy等一堆工具包。它们都装在yolo这个环境里。不激活你就用不了这些工具。2.2 代码迁移与目录切换镜像启动后代码默认放在系统盘。为了有足够的空间存放我们后续的数据集和训练结果也为了方便修改代码我们需要把代码复制到数据盘。执行以下命令cp -r /root/ultralytics-8.4.2 /root/workspace/复制完成后进入代码目录cd /root/workspace/ultralytics-8.4.2现在你的工作环境就准备好了。你可以用ls命令查看一下目录内容应该能看到一堆Python文件和文件夹。3. 初体验用预训练模型玩转目标检测在开始训练自己的模型前我们先来体验一下YOLO26有多厉害。镜像里已经预下载了几个官方训练好的模型文件权重放在代码根目录下。我们用一个简单的脚本来试试推理效果。3.1 编写推理脚本在代码目录下新建一个Python文件比如叫my_detect.py。你可以用JupyterLab自带的文本编辑器或者直接在终端用vim或nano命令创建。文件内容如下# -*- coding: utf-8 -*- from ultralytics import YOLO if __name__ __main__: # 1. 加载模型 # 这里我们使用一个预训练的姿态估计模型 model YOLO(modelyolo26n-pose.pt) # 2. 进行预测 model.predict( source./ultralytics/assets/zidane.jpg, # 要检测的图片路径 saveTrue, # 把检测结果图片保存下来 showFalse # 不在窗口显示服务器环境通常不显示 )这段代码做了两件事加载模型YOLO(modelyolo26n-pose.pt)这一行告诉程序去加载名叫yolo26n-pose.pt的模型文件。这个模型已经学会了识别人的身体关键点比如头、肩膀、手肘。进行预测model.predict()是执行预测的函数。我们传入了几个参数source告诉模型检测哪张图片。这里用的是自带的示例图片。saveTrue非常重要这会让程序把检测结果画了框和点的图片保存到硬盘上。showFalse在服务器上通常没有图形界面所以设为False。其他你可能用到的参数source除了可以是图片路径如‘bus.jpg’还可以是视频文件路径如‘video.mp4’摄像头编号如0表示打开电脑的第一个摄像头一个包含很多图片的文件夹路径如果你想检测其他物体比如猫狗、车辆可以换成‘yolo26n.pt’这个通用检测模型。3.2 运行推理脚本在终端里确保你在/root/workspace/ultralytics-8.4.2目录下然后运行python my_detect.py程序会开始运行终端会打印一些加载信息和进度。完成后它会告诉你结果保存在哪里通常是runs/detect/predict/这样的文件夹里。你可以去这个文件夹找到处理后的图片看看YOLO26在示例图片上标记出了哪些关键点。恭喜你已经完成了第一次YOLO推理。是不是很简单接下来我们要进入更核心的部分——训练一个属于你自己的模型。4. 核心实战训练你自己的检测模型训练模型简单说就是“教”AI认识新东西。比如你想让AI识别你工厂流水线上的特定零件或者识别花园里不同品种的花。你需要准备一些“教材”数据集然后让AI反复学习。4.1 准备数据集给AI的“教材”YOLO需要特定格式的“教材”主要包含两部分图片包含你要识别的物体的普通图片.jpg, .png等。标签文件与图片同名的.txt文件里面用数字精确描述了每个物体在图片中的位置和类别。标签文件格式详解以目标检测为例每一行代表图片中的一个物体格式为class_id x_center y_center width heightclass_id物体的类别编号从0开始。比如0代表“猫”1代表“狗”。x_center, y_center物体边界框中心点的坐标。这里的坐标是归一化后的即相对于图片宽高的比例值范围0-1。width, height物体边界框的宽度和高度。同样是归一化后的比例值。举个例子假设一张图片大小是 640x480里面有一只猫class_id0它的边界框左上角在(100, 120)右下角在(300, 400)。 那么中心点 x (100 300) / 2 / 640 0.3125中心点 y (120 400) / 2 / 480 0.5417宽度 w (300 - 100) / 640 0.3125高度 h (400 - 120) / 480 0.5833 标签文件里就应该写一行0 0.3125 0.5417 0.3125 0.5833如何获得标签文件手动标注使用LabelImg、CVAT、X-AnyLabeling等工具在图片上画框并指定类别工具会自动生成.txt文件。格式转换如果你已有其他格式如Pascal VOC的XML文件的数据集需要写脚本转换成YOLO格式。4.2 创建数据集配置文件数据集准备好后我们需要创建一个“说明书”告诉YOLO去哪里找这些“教材”。这个“说明书”就是一个data.yaml文件。在项目根目录/root/workspace/ultralytics-8.4.2下创建一个名为data.yaml的文件内容如下# data.yaml # 训练集图片所在的路径 train: /root/workspace/my_dataset/images/train # 验证集图片所在的路径 val: /root/workspace/my_dataset/images/val # 可选测试集图片路径 # test: /root/workspace/my_dataset/images/test # 类别数量比如你要识别猫和狗这里就是2 nc: 2 # 类别名称列表顺序要和标签文件里的class_id对应 names: [cat, dog]关键点train和val路径指向的是图片.jpg所在的文件夹。YOLO会自动去同级目录下的labels文件夹里寻找对应的标签文件.txt。所以你的数据集文件夹结构应该是这样的my_dataset/ ├── images/ │ ├── train/ # 存放训练图片 │ └── val/ # 存放验证图片 └── labels/ ├── train/ # 存放训练标签.txt文件 └── val/ # 存放验证标签.txt文件请将/root/workspace/my_dataset替换成你实际上传数据集后的真实路径。4.3 编写训练脚本现在我们来编写训练的主程序。在项目根目录下创建一个my_train.py文件。# -*- coding: utf-8 -*- import warnings warnings.filterwarnings(ignore) # 忽略一些不影响运行的警告信息 from ultralytics import YOLO if __name__ __main__: # 1. 构建模型结构 # 这里我们使用YOLO26的神经网络结构定义文件 model YOLO(model/root/workspace/ultralytics-8.4.2/ultralytics/cfg/models/26/yolo26.yaml) # 2. 可选加载预训练权重 # 使用官方在大型数据集上训练好的权重来初始化模型通常能训练得更快更好 # 如果你是做全新的任务比如识别非常特殊的物体可以不加载从头开始训练 model.load(yolo26n.pt) # 3. 开始训练 model.train( datadata.yaml, # 数据集配置文件的路径 imgsz640, # 输入图片的大小调整为640x640像素 epochs200, # 整个数据集要训练多少轮 batch128, # 一次喂给模型多少张图片越大训练越快但需要更多显存 workers8, # 加载数据的线程数可以加快数据读取速度 device0, # 使用哪块GPU训练0代表第一块。如果有多个GPU可以写‘0,1’ optimizerSGD, # 优化器SGD是常用的一种 close_mosaic10, # 最后10轮关闭Mosaic数据增强让训练更稳定 resumeFalse, # 是否从上次中断的地方继续训练 projectruns/train, # 训练结果保存的根目录 namemy_first_exp, # 本次实验的名字会生成一个对应的子文件夹 single_clsFalse, # 你的数据集是否只有一个类别是则为True cacheFalse, # 是否缓存数据集到内存True会更快但占内存 )重要参数解析参数通俗解释新手建议值imgsz把图片统一缩放到多大。图片太大训练慢太小可能看不清物体。640epochs训练轮数。模型会把整个数据集看多少遍。轮数太少学不会太多可能学“过”了。100-300batch一批处理多少张图。数字越大训练越快越稳定但对电脑显存要求越高。根据你的显存来可以从16、32、64尝试。workers有几个“小工”帮你准备数据。数字大一点数据准备快训练不等待。4或8device用哪张显卡来算。‘0’用第一张‘0,1’用前两张一起算。‘0’resume如果训练到一半断了设为True可以接着训不用从头开始。Falseproject/name你的训练日志、模型文件会保存在runs/train/my_first_exp/下面。自己起个名4.4 开始训练在终端运行你的训练脚本python my_train.py训练就正式开始了你会看到终端不断刷出信息包括当前训练到第几轮、损失值是多少、精度如何等等。这个过程可能会持续几个小时甚至更久取决于你的数据集大小和训练轮数。你可以泡杯茶耐心等待。训练过程中程序会自动把最好的模型和最后一轮的模型保存下来。5. 结果验证与模型下载5.1 使用训练好的模型进行推理训练完成后在runs/train/my_first_exp/weights/目录下你会找到两个最重要的文件best.pt训练过程中在验证集上表现最好的模型。last.pt训练结束时的最终模型。我们可以用这个自己训练的模型去检测新的图片。新建一个my_val_detect.py文件from ultralytics import YOLO # 加载我们刚刚训练好的最佳模型 model YOLO(runs/train/my_first_exp/weights/best.pt) # 检测一张新图片 results model.predict( sourcepath/to/your/new_image.jpg, # 换成你的新图片路径 saveTrue, showFalse, conf0.25 # 置信度阈值只显示模型认为有25%以上把握的检测框 ) # 你也可以检测一个文件夹里的所有图片 # results model.predict(sourcepath/to/your/image_folder/, saveTrue)运行这个脚本看看你的模型在新图片上的表现如何这是最有成就感的时刻。5.2 下载训练成果到本地模型训练好之后我们肯定要把它下载到自己的电脑上使用或保存。服务器上的文件可以通过SFTP工具如Xftp、FileZilla下载。以Xftp为例简单几步打开Xftp新建一个连接填写服务器的IP地址、端口通常是22、用户名root和密码。连接成功后左边窗口是你的本地电脑右边窗口是远程服务器。在右边窗口导航到/root/workspace/ultralytics-8.4.2/runs/train/my_first_exp/这个文件夹。选中整个my_first_exp文件夹或者只选中weights文件夹然后从左边的本地窗口拖拽到右边的服务器窗口或者直接右键下载。如果文件很大建议先在服务器上压缩一下再下载会快很多# 在服务器终端进入runs/train目录 cd /root/workspace/ultralytics-8.4.2/runs/train # 压缩my_first_exp文件夹 tar -czf my_first_exp.tar.gz my_first_exp/然后下载这个my_first_exp.tar.gz压缩包即可。6. 总结与后续到这里你已经完成了YOLO26从环境搭建到自定义模型训练的全流程。我们再来回顾一下关键步骤环境启动利用预置镜像免去繁琐配置一键激活yolo环境。快速体验使用预训练模型进行推理直观感受YOLO的能力。数据准备按照YOLO格式整理你的图片和标签文件并创建data.yaml配置文件。模型训练编写训练脚本调整关键参数启动训练并耐心等待。验证与下载使用训练好的模型检测新图片并将最终成果下载到本地。给新手的几个建议从小开始第一次训练可以用一个只有几十张图片的小数据集快速跑通整个流程建立信心。多看日志训练时终端打印的信息和runs/train/my_first_exp目录下生成的图表如损失曲线、精度曲线能帮你判断模型学得好不好。善用预训练权重model.load(‘yolo26n.pt’)这行代码能极大提升训练效率和最终效果特别适合数据量不大的情况。尝试不同任务YOLO26不仅能做目标检测还能做实例分割YOLO26n-seg.pt、姿态估计YOLO26n-pose.pt等。修改加载的模型文件和数据集格式你就能探索更多功能。深度学习入门就像学骑车一开始可能需要人扶但一旦跑通了第一个完整的流程你会发现后面的路越来越宽。这个开箱即用的镜像和本教程就是帮你扶稳车把的那双手。现在轮子已经转动起来了大胆地去训练你的第一个AI模型吧获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

YOLO26保姆级教程:从环境搭建到模型训练,小白也能轻松上手

YOLO26保姆级教程:从环境搭建到模型训练,小白也能轻松上手 1. 引言:为什么选择YOLO26? 如果你对计算机视觉感兴趣,或者工作中需要处理图片、视频里的物体识别,那你一定听说过YOLO这个名字。它就像一个视力…...

Jimeng LoRA在跨模态实验中的延伸:LoRA热切换+ControlNet联合调用案例

Jimeng LoRA在跨模态实验中的延伸:LoRA热切换ControlNet联合调用案例 1. 项目简介:一个专为LoRA模型测试而生的轻量系统 如果你玩过Stable Diffusion,肯定对LoRA不陌生。LoRA就像给大模型穿上的“风格外衣”,能让它快速学会画特…...

轻量级实战:利用 K3s 和 Kubeflow 构建高效 AI 开发环境

1. 为什么你需要一个轻量级的本地AI开发环境? 如果你正在学习机器学习,或者在一个小团队里捣鼓AI模型,我猜你肯定遇到过这样的烦恼:每次想跑个实验,要么得去申请云上的GPU实例,流程繁琐不说,成本…...

树莓派4B系统源优化指南:从清华源到pip源的全面配置(Raspbian-buster系统)

1. 为什么你的树莓派4B需要优化软件源? 刚拿到树莓派4B,刷好Raspbian-buster系统,是不是感觉一切都挺美好?但当你第一次尝试用 sudo apt-get update 更新软件包列表,或者用 pip install 安装一个Python库时&#xff0c…...

【STM32】stm32G030 BLDC电机驱动:PWM中心对齐模式与刹车功能实战解析

1. 从零开始:为什么STM32G030的TIM1是BLDC驱动的“王牌” 如果你刚开始玩无刷直流电机(BLDC),可能会被一堆术语搞晕:FOC、六步换相、霍尔传感器、PWM……别急,咱们今天不谈那些复杂的算法,就从最…...

DAnet实战:基于PyTorch的双注意力机制语义分割模型解析与实现

1. 从“看局部”到“看全局”:为什么语义分割需要双注意力机制? 如果你玩过“大家来找茬”或者“找不同”的游戏,你肯定有过这样的体验:有时候两个地方的差异非常细微,你盯着一个局部看了半天也发现不了,但…...

基于Verilog与Quartus II的模型机设计实战:从模块构建到Cyclone II FPGA部署

1. 从零开始:为什么我们要亲手设计一台模型机? 如果你是一名电子工程或计算机相关专业的学生,或者是对计算机底层原理充满好奇的爱好者,你可能不止一次地想过:我面前的这台电脑,它到底是怎么工作的&#xf…...

Cesium 实现动态轨迹回放与时间控制

1. 从零开始:理解Cesium动态轨迹回放的核心 想象一下,你手头有一架无人机的飞行数据,或者一艘货轮的航行日志,你想在一个逼真的三维地球上,像看电影一样,把这段旅程重新播放出来。模型不仅要沿着预定的路线…...

【微知】Linux下5种高效查询NUMA节点的方法及适用场景解析(lscpu、numactl、/sys、/proc实战)

1. 从“一视同仁”到“远近亲疏”:聊聊NUMA到底是个啥 如果你用过那种老式的多CPU服务器,或者现在的高性能工作站,可能会觉得CPU访问内存嘛,不就是“读”和“写”两件事,所有内存条对CPU来说应该都一样快。我以前也是这…...

nlp_structbert_sentence-similarity_chinese-large与Dify集成:快速构建智能文本比对应用

nlp_structbert_sentence-similarity_chinese-large与Dify集成:快速构建智能文本比对应用 你是不是也遇到过这样的场景?面对海量的用户咨询,需要快速判断哪些问题是相似的,好进行归类处理;或者,在审核用户…...

C语言实战:从零实现高效重采样算法

1. 重采样到底是什么?从生活场景到代码实现 如果你玩过音乐,或者处理过图片,那你其实已经接触过重采样了。比如,你把一首高音质的无损音乐转换成体积更小的MP3,或者把一张高清大图缩略成手机上的小图标,这背…...

SAP PP实战解析:从订单下达、状态流转到物料检查与移动的闭环管理

1. 订单下达:生产执行的“发令枪” 在SAP PP模块里,生产订单的“下达”(Release)动作,就像是车间主任吹响了开工的哨子。很多刚接触PP模块的朋友可能会觉得,订单创建完不就可以直接干活了吗?其实…...

Mac 告别Xshell焦虑,FinalShell的SSH与跳板机实战指南

1. 为什么Mac用户需要告别Xshell焦虑? 如果你是刚从Windows阵营转到Mac的程序员、运维或者开发者,我猜你肯定经历过一段“终端工具阵痛期”。在Windows上,Xshell几乎是SSH客户端的代名词,界面友好、功能强大,特别是那个…...

【GmSSL】如何在Linux系统中实现GmSSL与OpenSSL的无冲突共存部署

1. 为什么我们需要让GmSSL和OpenSSL共存? 如果你是一个在国内做企业级应用开发的工程师,最近几年肯定没少听到“国密算法”这个词。从金融、政务到物联网,支持国密算法(SM2/SM3/SM4)已经从一个加分项变成了很多场景下的…...

【限时开源】R 4.5部署监控仪表盘(Prometheus+Grafana+Rcpp实时指标采集):追踪predict()耗时、内存泄漏、特征漂移——仅开放72小时下载

第一章:R 4.5机器学习模型部署监控体系概览在 R 4.5 环境下,机器学习模型部署后的可观测性不再仅依赖日志轮转或手动采样,而需构建覆盖数据输入、预测服务、资源状态与业务指标的多维监控闭环。该体系以 prometheus 为指标中枢,通…...

【实践】Dynamic Taint Analysis 动态污点分析在漏洞挖掘中的应用

1. 动态污点分析:漏洞挖掘中的“数据侦探” 想象一下,你正在开发一个Web应用,用户可以在表单里输入任何内容。这些输入,比如用户名、搜索词、上传的文件,就像从外部世界涌入你程序“城市”的货物。大部分货物是安全的&…...

RuoYi-Vue3-FastAPI 全栈项目 Docker 容器化实战指南

1. 为什么你需要这份 Docker 容器化实战指南? 如果你正在使用或者打算使用 RuoYi-Vue3-FastAPI 这个全栈框架来开发项目,那么部署上线这件事,迟早会摆在你面前。传统的部署方式是什么?你得在服务器上装好 Python 环境、Node.js 环…...

【C语言实战】从零构建:滑动窗口与增量计算在嵌入式RMS实时处理中的工程抉择

1. 项目启动:当电机电流监测遇上资源捉襟见肘的MCU 大家好,我是老李,一个在嵌入式坑里摸爬滚打了十多年的工程师。最近刚接了个新项目,客户要求我们做一套电机运行状态的实时监测系统,核心指标之一就是电机电流的有效…...

云服务器选购实战指南(是什么?怎么分?如何挑?)

1. 云服务器到底是什么?从“租房”到“买房”的认知升级 很多朋友第一次接触“云服务器”这个词,感觉它既熟悉又陌生。熟悉是因为天天听,陌生是不知道它到底能干啥,和自己有什么关系。别急,咱们先不讲那些拗口的技术名…...

GME-Qwen2-VL-2B-Instruct快速上手:3步完成Dify平台上的智能视觉应用搭建

GME-Qwen2-VL-2B-Instruct快速上手:3步完成Dify平台上的智能视觉应用搭建 你是不是也对那些能看懂图片、回答问题的AI应用感到好奇?比如上传一张商品图,AI就能告诉你这是什么牌子、大概多少钱;或者上传一张复杂的图表&#xff0c…...

GLM4.6 vs Kimi vs Minimax-m2:国产AI前端代码质量与架构深度剖析

1. 引言:当AI开始写代码,我们该看什么? 最近几年,AI写代码这事儿已经从科幻走进了现实。很多开发者,包括我自己,都开始习惯性地在遇到一些重复性、模板化的前端任务时,丢给AI一句提示词&#xf…...

PANet(CVPR 2018)核心机制解析与代码实战

1. 从FPN到PANet:为什么我们需要更顺畅的信息高速公路? 如果你玩过计算机视觉,特别是目标检测和实例分割,那你肯定对FPN(Feature Pyramid Network)不陌生。FPN在2017年提出后,几乎成了多尺度特征…...

SigmaStar SSD26X智能显示芯片解析:AI赋能的多场景应用实践

1. 从“显示”到“智能”:SSD26X芯片的定位与核心优势 如果你最近在捣鼓智能硬件项目,比如想做个带AI功能的摄像头,或者给自助收银机加个人脸识别,大概率会听到一个名字:SigmaStar SSD26X。这芯片在圈子里火起来不是没…...

小程序项目AI智能客服嵌入实战:从架构设计到性能优化

最近在做一个电商类小程序,需要接入AI智能客服功能。刚开始觉得不就是调个API嘛,结果一上手就发现坑太多了。消息延迟高、用户多的时候服务就卡顿、聊着聊着上下文就丢了……这些问题不解决,用户体验根本没法看。经过一番折腾,总算…...

Realistic Vision V5.1 虚拟摄影棚快速部署教程:基于Ubuntu的一键环境搭建

Realistic Vision V5.1 虚拟摄影棚快速部署教程:基于Ubuntu的一键环境搭建 想试试用AI生成媲美专业摄影棚的人像照片,却被复杂的模型部署和CUDA环境搞得头大?别担心,今天咱们就来手把手搞定这件事。Realistic Vision V5.1 是目前…...

实战指南:ONNX Runtime Java 在边缘计算场景下的 AI 推理部署

1. 为什么边缘计算需要 ONNX Runtime Java? 大家好,我是老张,在AI和嵌入式这行摸爬滚打了十几年。这几年,我亲眼看着AI从云端“飞”到了我们身边的各种设备上——工厂里的质检摄像头、农田里的无人机、甚至是你家里的智能门锁。这…...

从特征割裂到连续流动:nnWNet如何重构Transformer与CNN在医学影像分割中的协同范式

1. 医学影像分割的“左右互搏”:全局与局部的割裂之痛 如果你尝试过用深度学习模型来处理医学影像,比如从CT扫描中分割出肿瘤,或者从眼底照片里勾勒出血管,那你一定对UNet这类U型网络不陌生。它们就像经验丰富的外科医生&#xff…...

优化磁盘性能:5种实用方法降低100%占用率

1. 揪出“磁盘杀手”:从任务管理器到深度排查 不知道你有没有遇到过这种情况,电脑突然变得奇慢无比,点开一个文件夹都要转半天圈,打开任务管理器一看,好家伙,磁盘占用率直接飙到100%,那个红色的…...

3C行业钛合金3D打印材料如何选?这家企业已备好三种方案!

笔者注意到,OPPO于3月11日召开了Find N6手机的无折痕技术沟通会,明确了继续使用钛合金3D打印技术制造部分重要零件。结合近年来国内外其他头部3C品牌对钛合金材料的持续探索与应用,3D打印钛合金正在成为全球消费电子行业新的应用焦点&#xf…...

Cadence封装设计全流程:从SOT23-6实例解析原理图到3D模型构建

1. 从零开始:为什么封装设计是硬件工程师的必修课? 很多刚入行的硬件朋友,一听到“封装设计”就觉得头大,感觉这是PCB设计软件里一个特别底层、特别繁琐的环节。我以前也是这么想的,总觉得画原理图、设计电路才是“正事…...