当前位置: 首页 > article >正文

从零手写 miniGPT 02 | 数据工程与训练循环:GPT 是如何“学习“的?

上一节我们从 Block 层面解析了 GPT 的核心结构包括多头注意力、前馈网络以及残差与归一化机制这些模块共同构成了 Transformer 的基本计算单元也是当前主流大模型共享的底层框架。然而模型能力的差异并不完全来源于结构本身。在相似的网络架构之下真正决定模型行为与能力边界的是其训练数据、训练目标以及训练过程。本节将从数据输入与训练流程出发系统梳理 GPT 是如何在大规模语料上被逐步“塑造”出来的。数据与训练流程一原始文本数据 - MyDataset 文本读取 / Token 化 / 构造输入 x 与标签 y - block_size 序列截断或对齐限制最大上下文长度 - DataLoader 批量加载 / 随机采样 / 形成 batch - train_one_epoch 前向计算 - Loss 计算 - 反向传播 - optimizer / scheduler 参数更新 / 学习率动态调整 - evaluate 验证集前向计算 / 评估泛化能力 - checkpoint 保存模型与训练状态核心代码逐块拆解二import torch import torch.nn as nn from torch.utils.data import Dataset, DataLoader import json import os # # 第一部分主程序运行区 (Execution Area) # # 1. 基础配置 device cuda if torch.cuda.is_available() else cpu block_size 512 # 模型一次能处理的最大序列长度 batch_size 12 # 每批次训练的数据量 # 2. 模型初始化 # 详见上一节GPT架构 model GPT(GPTConfig(block_sizeblock_size)) model model.to(device) # 打印模型参数量 total_params sum(p.numel() for p in model.parameters()) print(fTotal parameters: {total_params / 1e6:.2f} M) # 3. 优化器与学习率调度器 optimizer torch.optim.AdamW(model.parameters(), lr3e-4) # 使用余弦退火算法动态调整学习率T_max 通常设置为总训练步数 scheduler torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max1000) # 4. 数据准备 dataset_path /root/test.jsonl full_dataset MyDataset(dataset_path, block_sizeblock_size) # 按照 9:1 划分训练集和验证集 train_size int(0.9 * len(full_dataset)) val_size len(full_dataset) - train_size train_dataset, val_dataset torch.utils.data.random_split(full_dataset, [train_size, val_size]) train_loader DataLoader(train_dataset, batch_sizebatch_size, shuffleTrue) val_loader DataLoader(val_dataset, batch_sizebatch_size, shuffleFalse) # 5. 正式开始训练循环 (Epochs) os.makedirs(checkpoints, exist_okTrue) # 确保存档目录存在 for epoch in range(2): # 执行一轮训练 train_loss train_one_epoch(model, optimizer, scheduler, train_loader, device, epoch) # 执行一轮验证 val_loss evaluate(model, val_loader, device) avg_val_loss val_loss / len(val_loader) print(fEpoch {epoch} finished. Avg Val Loss: {avg_val_loss:.4f}) # 6. 保存模型存档 (Checkpoint) checkpoint { epoch: epoch, model_state_dict: model.state_dict(), optimizer_state_dict: optimizer.state_dict(), scheduler_state_dict: scheduler.state_dict(), val_loss: avg_val_loss, } torch.save(checkpoint, fcheckpoints/model_epoch_{epoch}.pt)相关函数——训练、评估、数据处理函数def train_one_epoch(model, optimizer, scheduler, train_loader, device, epoch): 单轮训练函数 model.train() total_loss 0 for batch_idx, (x, y) in enumerate(train_loader): # 修正enumerate x, y x.to(device), y.to(device) # 前向传播计算预测值和损失 logits, loss model(x, targetsy) # 反向传播三部曲 optimizer.zero_grad() # 清空旧梯度 loss.backward() # 计算新梯度 optimizer.step() # 更新参数 # 调整学习率 scheduler.step() total_loss loss.item() if batch_idx % 100 0: print(fEpoch: {epoch}, Batch: {batch_idx}, Loss: {loss.item():.4f}) return total_loss def evaluate(model, val_loader, device): 验证集评估函数 model.eval() val_loss 0 with torch.no_grad(): # 验证时不计算梯度节省内存 for x, y in val_loader: x, y x.to(device), y.to(device) logits, loss model(x, targetsy) val_loss loss.item() return val_loss # # 第三部分数据类定义 (Class Definitions) # class MyDataset(Dataset): 负责将 jsonl 文件读取、Tokenize并切分成适合 GPT 训练的块 def __init__(self, path, block_size512): import tiktoken self.enc tiktoken.get_encoding(gpt2) self.block_size block_size self.encoded_data [] # 定义结束符 Token ID self.eos_token self.enc.encode( |endoftext|, allowed_special{|endoftext|} )[0] # 1. 加载原始数据 raw_data [] max_lines 1000 with open(path, r, encodingutf-8) as f: for i, line in enumerate(f): if i max_lines: break try: text json.loads(line.strip())[text] raw_data.append(text) except: continue # 2. 将所有文本拼接成一个长序列中间用 EOS 分隔 full_encoded [] for text in raw_data: encoded_text self.enc.encode(text) full_encoded.extend(encoded_text [self.eos_token]) # 3. 滑动窗口切割每个 chunk 长度为 block_size 1 (为了 x 和 y 的平移) # for i in range(0, len(full_encoded), self.block_size): chunk full_encoded[i : i self.block_size 1] # 如果最后一块不够长用 EOS 填充 (Padding) if len(chunk) self.block_size 1: chunk chunk [self.eos_token] * (self.block_size 1 - len(chunk)) self.encoded_data.append(chunk) def __len__(self): return len(self.encoded_data) def __getitem__(self, idx): chunk self.encoded_data[idx] # x 为前 n 个 tokeny 为后 n 个 token即 x 的下一个 token x torch.tensor(chunk[:-1], dtypetorch.long) y torch.tensor(chunk[1:], dtypetorch.long) return x, y至此我们完成了训练流程的核心拆解从数据准备、模型输入构建到训练与验证函数每一步都是模型顺利学习的基础。理解了这些流程后续我们才能更高效地调参、优化训练并为最终的模型性能打下坚实基础。这里给大家精心整理了一份全面的AI大模型学习资源包括AI大模型全套学习路线图从入门到实战、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等资料免费分享扫码免费领取全部内容1. 成长路线图学习规划要学习一门新的技术作为新手一定要先学习成长路线图方向不对努力白费。这里我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。2. 大模型经典PDF书籍书籍和学习文档资料是学习大模型过程中必不可少的我们精选了一系列深入探讨大模型技术的书籍和学习文档它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。书籍含电子版PDF3. 大模型视频教程对于很多自学或者没有基础的同学来说书籍这些纯文字类的学习教材会觉得比较晦涩难以理解因此我们提供了丰富的大模型视频教程以动态、形象的方式展示技术概念帮助你更快、更轻松地掌握核心知识。4. 2026行业报告行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5. 大模型项目实战学以致用当你的理论知识积累到一定程度就需要通过项目实战在实际操作中检验和巩固你所学到的知识同时为你找工作和职业发展打下坚实的基础。6. 大模型面试题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我们将提供精心整理的大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。7. 资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容

相关文章:

从零手写 miniGPT 02 | 数据工程与训练循环:GPT 是如何“学习“的?

上一节我们从 Block 层面解析了 GPT 的核心结构,包括多头注意力、前馈网络以及残差与归一化机制,这些模块共同构成了 Transformer 的基本计算单元,也是当前主流大模型共享的底层框架。 然而,模型能力的差异并不完全来源于结构本身…...

Qt Model/View设计模式详解:为什么你的表格数据总是不一致?

Qt Model/View设计模式深度解析:根治表格数据不一致的工程实践 在桌面应用开发中,数据展示与用户交互的稳定性直接影响用户体验。许多开发者在使用Qt标准控件时,常遇到表格数据显示异常、编辑结果丢失或数据源与界面不同步等问题。这些表象背…...

OpenClaw语音交互方案:ollama-QwQ-32B+Whisper实现语音指令控制

OpenClaw语音交互方案:ollama-QwQ-32BWhisper实现语音指令控制 1. 为什么需要语音交互方案 上周我在整理电脑文件时突然冒出一个想法:如果能用语音直接指挥AI完成操作,会不会比手动输入指令更高效?这个念头促使我开始探索OpenCl…...

RexUniNLU模型在STM32嵌入式设备上的轻量化部署方案

RexUniNLU模型在STM32嵌入式设备上的轻量化部署方案 1. 引言 想象一下,你正在开发一款智能家居设备,需要让设备理解用户的语音指令,比如"打开客厅的灯"或者"调高空调温度"。传统方案需要将语音数据上传到云端处理&…...

Ubuntu命令行终端启动全攻略(5种高效方式)

1. 最快捷的终端启动方式:快捷键组合 作为Ubuntu老用户,我最常用的就是CtrlAltT这个黄金组合键。这个快捷键就像给你的系统装了个紧急逃生舱——无论当前在运行什么程序,只要同时按下这三个键,终端窗口就会瞬间弹出。实测在Ubuntu…...

mkfile创建文件夹和文件脚本

资源地址 https://download.csdn.net/download/hashiqimiya/92753755https://download.csdn.net/download/hashiqimiya/92753755...

告别命令行!SQLMap图形化工具实战:从URL注入到POST请求全解析

SQLMap图形化工具实战指南:从入门到高效渗透测试 在渗透测试领域,SQL注入始终是最常见且危害巨大的安全漏洞之一。传统命令行工具虽然功能强大,但对于许多测试人员来说,记忆复杂参数和手动构造命令既耗时又容易出错。这正是SQLMap…...

用Excel手算Transformer前向传播:一个时间序列预测的保姆级实例

用Excel手算Transformer前向传播:一个时间序列预测的保姆级实例 当第一次接触Transformer模型时,很多人会被其复杂的数学公式和编程实现吓退。但如果我们换一种方式——用最熟悉的Excel表格来手动计算每一步,你会发现Transformer的核心机制其…...

2026程序员就业图鉴:AI岗位月薪6万碾压全场,70%的人连门都摸不着

引言2026年春招,AI赛道彻底炸了。据最新数据,AI新发岗位平均月薪达 60,738元,较新经济行业整体均值高出约 26%。其中:AI科学家/负责人:平均月薪 137,153元大模型算法工程师、AIGC算法工程师:约 7万元高性能…...

【MCP 2.0安全合规红线】:20年协议安全专家亲授3大高危漏洞识别法与零成本加固路径

第一章:【MCP 2.0安全合规红线】:20年协议安全专家亲授3大高危漏洞识别法与零成本加固路径 MCP 2.0(Managed Communication Protocol 2.0)作为新一代设备间可信通信基座,其安全设计直接决定IoT边缘网关、工业控制器及云…...

使用Cosmos-Reason1-7B自动化批改编程作业:代码逻辑与风格检查

使用Cosmos-Reason1-7B自动化批改编程作业:代码逻辑与风格检查 1. 引言 如果你是计算机课程的老师,或者负责带学生做项目,那你肯定对批改编程作业这件事深有体会。几十份、上百份代码看下来,眼睛都花了。更头疼的是,…...

Tailscale安装避坑指南:解决Ubuntu下常见报错(含curl缺失问题)

Tailscale在Ubuntu上的完整安装与排错实战指南 引言:为什么选择Tailscale? 在当今分布式办公和远程协作成为常态的环境下,安全便捷的网络连接工具变得尤为重要。Tailscale作为一种基于WireGuard的现代VPN替代方案,以其零配置、端到…...

GTE-Pro多行业落地案例:金融/政务/制造企业语义搜索实施路径

GTE-Pro多行业落地案例:金融/政务/制造企业语义搜索实施路径 1. 项目概述:重新定义企业搜索体验 GTE-Pro是基于阿里达摩院GTE-Large架构构建的企业级语义检索引擎,它彻底改变了传统的关键词匹配搜索方式。这个系统通过深度学习技术将文本转…...

参考文献崩了?AI论文平台千笔·专业学术智能体 VS 锐智 AI,专科生专属写作神器

毕业论文的写作过程总是让人感到压力山大,从选题到大纲,从初稿到文献,再到降重、查重、格式调整,最后还要准备答辩PPT,每一个环节都充满了挑战。对于专科生来说,时间有限、经验不足、资料匮乏,这…...

单片机/C/C++八股:(二十一)include <> 和 include ““ 的区别

上一篇下一篇指针常量和常量指针include <> 和 include “” 的区别 搜索路径不同&#xff1a; <>&#xff1a;只在标准库目录搜索。一般用于系统标准头文件。""&#xff1a;先在当前目录搜索&#xff0c;未找到再搜索标准库目录。一般用于自定义头文件…...

【国家级存算项目核心代码解密】:3个被工业界封存5年的C语言存内计算范式首次公开

第一章&#xff1a;存算一体架构演进与国家级项目背景存算一体&#xff08;Processing-in-Memory, PIM&#xff09;技术正从学术探索加速迈向工程落地&#xff0c;其核心驱动力源于传统冯诺依曼架构下“内存墙”问题日益严峻——数据在处理器与存储器间频繁搬运导致能效比急剧下…...

保姆级教程:用天问Block给ASR-PRO语音模块‘训练’自定义指令,联动Arduino

零代码玩转智能语音&#xff1a;天问BlockASR-PROArduino全流程指南 想象一下&#xff0c;只需对着设备说"打开台灯"&#xff0c;温暖的灯光立刻亮起&#xff1b;说"关闭风扇"&#xff0c;旋转的叶片应声停止——这种科幻电影般的交互体验&#xff0c;现在…...

WeNet移动端语音识别集成指南:从原理到实战优化

WeNet移动端语音识别集成指南&#xff1a;从原理到实战优化 【免费下载链接】wenet Production First and Production Ready End-to-End Speech Recognition Toolkit 项目地址: https://gitcode.com/gh_mirrors/we/wenet 一、价值定位&#xff1a;为什么移动端需要专业语…...

为什么你让 Claude 做网页,总是一股“AI味”?这 5 个办法,能把那股廉价感压下去

如果你直接丢一句话给 Claude&#xff0c;让它帮你生成一个网页&#xff0c;那么大概率&#xff0c;你最后拿到的会是一个“能用&#xff0c;但也就只是能用”的结果。比如&#xff0c;你只给它这样一条提示&#xff1a;Code a landing page of a SaaS service called Roxy tha…...

效果到底如何?Qwen3-VL-8B图文对话模型实际使用体验与生成案例

效果到底如何&#xff1f;Qwen3-VL-8B图文对话模型实际使用体验与生成案例 最近&#xff0c;一个朋友给我发来一张他新买的户外装备照片&#xff0c;问我&#xff1a;“你觉得这东西适合在什么环境下用&#xff1f;”我仔细看了看&#xff0c;照片里是一个设计精巧的折叠桌椅套…...

从TCP连接被重置到下载成功:一次curl (35)报错的排查与解决实录

1. 当curl突然罢工&#xff1a;一次TCP连接重置的离奇遭遇 那天下午&#xff0c;我正在给一台CentOS 7服务器配置Docker环境。按照官方文档的指引&#xff0c;我需要用curl下载Docker Compose二进制文件。输入命令后&#xff0c;终端却弹出了让我心头一紧的报错&#xff1a; cu…...

系统发育多样性分析避坑指南:从Faith‘s PD计算到树文件修剪的常见错误解析

系统发育多样性分析避坑指南&#xff1a;从Faiths PD计算到树文件修剪的常见错误解析 1. 为什么你的Faiths PD计算结果总是出错&#xff1f; 刚接触系统发育分析的同学们经常会遇到一个令人困惑的现象&#xff1a;明明按照教程步骤操作&#xff0c;pd()函数却频繁报错。这往往与…...

工业C内存池动态扩容失效?揭秘4类隐蔽内存碎片陷阱及实时补偿算法

第一章&#xff1a;工业C内存池动态扩容失效的根源诊断工业级嵌入式系统中&#xff0c;C语言实现的内存池常被用于实时性敏感场景。当内存池设计支持动态扩容时&#xff0c;实际运行中却频繁出现扩容失败、分配返回NULL或触发断言异常等现象。此类问题并非源于内存不足&#xf…...

为什么大厂都在转C#?看完性能对比我沉默了

文章目录一、那个让架构师集体沉默的性能测试二、大厂转C#的真相&#xff1a;不是跟风&#xff0c;是算账三、.NET 9的性能魔法&#xff1a;它到底做了什么&#xff1f;1. PGO&#xff1a;用数据说话的"智能编译"2. 分层编译&#xff1a;既要快启动&#xff0c;又要高…...

Activin A蛋白在癌症恶病质血管内皮功能障碍中的作用机制研究

一、癌症恶病质的研究背景恶病质是癌症患者常见的全身性消耗性疾病&#xff0c;表现为严重的骨骼肌萎缩和进行性体重下降。由于对其发生机制了解不足&#xff0c;目前临床上缺乏有效治疗手段。骨骼肌是高度血管化的组织&#xff0c;血管内皮细胞作为接触血液循环因子的第一站&a…...

裸机开发与RTOS:嵌入式系统架构选型核心对比

1. 裸机开发与操作系统&#xff1a;嵌入式软件架构的分水岭在嵌入式系统开发的入门阶段&#xff0c;绝大多数工程师都会从51单片机或STM32F103这类资源受限的MCU起步&#xff0c;通过直接操作寄存器、编写延时函数、轮询外设状态来构建第一个LED闪烁程序。这种不依赖任何中间层…...

FM25W256 FRAM驱动设计:10MHz SPI零等待读写实现

1. FM25W256 FRAM器件驱动技术解析1.1 器件本质与工程价值定位FM25W256 是 Ramtron&#xff08;现属 Cypress&#xff0c;后并入 Infineon&#xff09;推出的 32KB&#xff08;262,144 位&#xff09;串行铁电随机存取存储器&#xff08;Ferroelectric RAM&#xff0c;FRAM&…...

从理论到实践:三种经典迭代法在MATLAB中的实现与性能对比

1. 为什么需要迭代法&#xff1f;从工程问题到数学求解 遇到大型稀疏线性方程组时&#xff0c;直接解法如高斯消元往往会面临计算量爆炸的问题。这就好比要在迷宫里找出口&#xff0c;暴力破解是把所有墙都拆掉&#xff08;直接解法&#xff09;&#xff0c;而迭代法则是沿着通…...

从零开始:在Ubuntu22.04上用Anaconda创建Python3.8虚拟环境并安装Pytorch1.12

在Ubuntu 22.04上构建Python 3.8与PyTorch 1.12的精准开发环境 当我们需要复现某个经典论文的模型或参与特定版本的开源项目时&#xff0c;环境配置往往成为第一道门槛。上周团队新来的实习生就遇到了这样的困境&#xff1a;GitHub上的一个目标检测项目明确要求Python 3.8PyTor…...

使用Lingbot-depth-pretrain-vitl-14实现实时深度估计的优化技巧

使用Lingbot-depth-pretrain-vitl-14实现实时深度估计的优化技巧 深度估计技术正在从实验室走向实际应用&#xff0c;而实时性往往是决定成败的关键因素 1. 环境准备与模型部署 在开始优化之前&#xff0c;我们需要先搭建好基础环境。Lingbot-depth-pretrain-vitl-14是一个基于…...