人工智能-深度学习-Torch框架-手动构建回归流程
from sklearn.datasets import make_regression
import math
import random
import torch
-
from sklearn.datasets import make_regression
: 导入make_regression
函数,用于生成回归数据集。 -
import math
: 导入math
模块,用于进行数学计算,例如向上取整。 -
import random
: 导入random
模块,用于随机打乱数据集。 -
import torch
: 导入torch
库,用于张量操作和神经网络训练。
构建数据集
def build_data():'''构建数据集'''noise = 14.6#噪声n_sample = 1000#样本数量X,y,coef = make_regression(n_samples=n_sample,n_features=4,coef=True)X = torch.tensor(X,dtype=torch.float64,requires_grad=True)y = torch.tensor(y,dtype=torch.float64,requires_grad=True)return X,y,coef
-
def build_data():
: 定义一个名为build_data
的函数,用于构建数据集。 -
noise = 14.6
: 设置噪声水平为14.6,用于生成带有噪声的数据。 -
n_sample = 1000
: 设置样本数量为1000,用于生成1000个样本。 -
X, y, coef = make_regression(n_samples=n_sample, n_features=4, coef=True)
: 使用make_regression
生成回归数据集,包含1000个样本和4个特征,并返回真实系数。 -
X = torch.tensor(X, dtype=torch.float64, requires_grad=True)
: 将生成的特征矩阵X
转换为PyTorch张量,数据类型为torch.float64
,并设置requires_grad=True
以启用梯度计算。 -
y = torch.tensor(y, dtype=torch.float64, requires_grad=True)
: 将生成的目标向量y
转换为PyTorch张量,数据类型为torch.float64
,并设置requires_grad=True
以启用梯度计算。 -
return X, y, coef
: 返回特征矩阵X
、目标向量y
和真实系数coef
。
构建数据加载器
def data_loader(x,y):'''数据加载器'''#配置参数batch_size = 16#一个批次的数量n_sample = x.shape[0]#len(x)长度n_batches = math.ceil(n_sample/batch_size)#一轮的训练次数index = [i for i in range(n_sample)]random.shuffle(index)for i in range(0,n_batches):indexs = index[i*batch_size:min((i+1)*batch_size,n_sample)]yield x[indexs],y[indexs]
-
def data_loader(x, y):
: 定义一个名为data_loader
的函数,用于加载数据。 -
batch_size = 16
: 设置每个批次的样本数量为16,用于控制每次训练的样本数量。 -
n_sample = x.shape[0]
: 获取样本数量,用于计算批次数量。 -
n_batches = math.ceil(n_sample / batch_size)
: 计算每轮的批次数量,使用math.ceil
向上取整,确保所有样本都能被处理。 -
index = [i for i in range(n_sample)]
: 创建一个包含所有样本索引的列表,用于随机打乱样本顺序。 -
random.shuffle(index)
: 打乱样本索引,以随机化样本顺序,避免训练过程中的顺序偏差。 -
for i in range(0, n_batches):
: 遍历每个批次,确保每个批次都能被处理。 -
indexs = index[i * batch_size:min((i + 1) * batch_size, n_sample)]
: 获取当前批次的索引,确保最后一个批次也能被处理。 -
yield x[indexs], y[indexs]
: 返回当前批次的特征矩阵和目标向量,使用yield
生成一个生成器,用于按需加载数据。
构建模型函数
def myregreser(x,w,b):return x@w+b#一个容器中装着的是每一条样本数据的预测值
x@w+b 跟 y = x*w+b差不多,无需多言哈
-
def myregreser(x, w, b):
: 定义一个名为myregreser
的函数,用于计算线性回归模型的预测值。 -
return x @ w + b
: 返回预测值,使用矩阵乘法@
计算x
和w
的乘积,然后加上偏置b
,实现线性回归模型.
构建损失函数
def MSE(y_pred,y_true):return torch.mean((y_pred-y_true)**2)
-
def MSE(y_pred, y_true):
: 定义一个名为MSE
的函数,用于计算均方误差(MSE)损失。 -
return torch.mean((y_pred - y_true) ** 2)
: 返回预测值和真实值之间的均方误差,用于衡量模型的预测精度。
把参数初始化
def initialize(n_featrue):torch.manual_seed(666)w = torch.randn(n_featrue,requires_grad=True,dtype=torch.float64)# print(w)b = torch.tensor(14.5,requires_grad=True,dtype=torch.float64)return w,b
-
def initialize(n_feature):
: 定义一个名为initialize
的函数,用于初始化模型参数。 -
torch.manual_seed(666)
: 设置随机种子为666,以确保结果可重复,避免随机性带来的不确定性。 -
w = torch.randn(n_feature)
: 使用随机值初始化权重w
,确保模型初始状态具有一定的随机性。 -
b = torch.tensor(14.5, requires_grad=True, dtype=torch.float64)
: 初始化偏置b
,并设置requires_grad=True
以启用梯度计算,确保偏置可以被优化。 -
return w, b
: 返回初始化的权重和偏置。
构建梯度下降函数
def optim_step(w,b,dw,db,lr):
#更新梯度,朝着梯度下降的方向去更新梯度w.data = w.data-lr*dw.datab.data = b,data-lr*db.data
-
def optim_step(w, b, dw, db, lr):
: 定义一个名为optim_step
的函数,用于更新模型参数。 -
w.data = w.data - lr * dw.data
: 更新权重w
,沿着梯度下降的方向,使用学习率lr
控制更新的步长。 -
b.data = b.data - lr * db.data
: 更新偏置b
,沿着梯度下降的方向,使用学习率lr
控制更新的步长。
使用上面构建的函数进行实战训练
def train():#生成数据x,y,coef = build_data()#初始化参数w,b = initialize(x.shape[1])#定义训练参数lr = 0.01epoch = 100for i in range(epoch):loss_e = 0count = 0for batch_x,batch_y_true in data_loader(x,y):y_bacth_pred = myregreser(batch_x,w,b)loss = MSE(y_bacth_pred,batch_y_true)loss_e+=losscount+=1#梯度清零if w.grad is not None:w.data.zero_()if b.grad is not None:b.data.zero_()#反向传播(梯度计算)loss.backward()#梯度更行optim_step(w,b,w.grad,b.grad,lr)print(f'epoch:{i},loss:{loss_e/count}')return w,b,coef
if __name__=='__main__':w,b,coef = train()print(w,b)print(coef)print(torch.allclose(w,torch.tensor(coef)))
-
def train():
: 定义一个名为train
的函数,用于训练模型。 -
x, y, coef = build_data()
: 生成数据集,获取特征矩阵x
、目标向量y
和真实系数coef
。 -
w, b = initialize(x.shape[1])
: 初始化模型参数,获取初始化的权重w
和偏置b
。 -
lr = 0.01
: 设置学习率为0.01,控制参数更新的步长。 -
epoch = 100
: 设置训练轮数为100,控制训练的迭代次数。 -
for i in range(epoch):
: 外层循环,遍历每个训练轮,确保模型在多个轮次中进行训练。 -
loss_e = 0
: 初始化每轮的总损失为0,用于累加每个批次的损失。 -
count = 0
: 初始化批次计数为0,用于计算每轮的平均损失。 -
for batch_x, batch_y_true in data_loader(x, y):
: 内层循环,遍历每个批次的数据,确保每个批次都能被处理。 -
y_batch_pred = myregreser(batch_x, w, b)
: 计算预测值,使用当前的权重和偏置进行预测。 -
loss = MSE(y_batch_pred, batch_y_true)
: 计算损失,使用均方误差衡量预测值和真实值之间的差异。 -
loss_e += loss
: 累加损失,用于计算每轮的总损失。 -
count += 1
: 计数批次数量,用于计算每轮的平均损失。 -
if w.grad is not None:
: 检查权重w
的梯度是否存在,确保梯度已经计算。 -
w.grad.zero_()
: 清零权重w
的梯度,避免梯度累积。 -
if b.grad is not None:
: 检查偏置b
的梯度是否存在,确保梯度已经计算。 -
b.grad.zero_()
: 清零偏置b
的梯度,避免梯度累积。 -
loss.backward()
: 反向传播,计算梯度,用于更新模型参数。 -
optim_step(w, b, w.grad, b.grad, lr)
: 更新参数,沿着梯度下降的方向更新权重和偏置。 -
print(f'epoch:{i}, loss:{loss_e / count}')
: 打印每轮的平均损失,用于监控训练过程。 -
return w, b, coef
: 返回训练后的权重、偏置和真实系数,用于评估模型性能。
相关文章:

人工智能-深度学习-Torch框架-手动构建回归流程
from sklearn.datasets import make_regression import math import random import torch from sklearn.datasets import make_regression: 导入make_regression函数,用于生成回归数据集。 import math: 导入math模块,用于进行数学计算,例如…...

SpringBoot源码解析(五):准备应用环境
SpringBoot源码系列文章 SpringBoot源码解析(一):SpringApplication构造方法 SpringBoot源码解析(二):引导上下文DefaultBootstrapContext SpringBoot源码解析(三):启动开始阶段 SpringBoot源码解析(四):解析应用参数args Sp…...

MySQL面试-1
InnoDB中ACID的实现 先说一下原子性是怎么实现的。 事务要么失败,要么成功,不能做一半。聪明的InnoDB,在干活儿之前,先将要做的事情记录到一个叫undo log的日志文件中,如果失败了或者主动rollback,就可以通…...
nginx配置不缓存资源
方法1 location / {index index.html index.htm;add_header Cache-Control no-cache,no-store;try_files $uri $uri/ /index.html;#include mime.types;if ($request_filename ~* .*\.(htm|html)$) {add_header Cache-Control "private, no-store, no-cache, must-revali…...
PHP导出EXCEL含合计行,设置单元格格式
PHP导出EXCEL含合计行,设置单元格格式,水平居中 垂直居中 public function exportSalary(Request $request){//水平居中 垂直居中$styleArray [alignment > [horizontal > Alignment::HORIZONTAL_CENTER,vertical > Alignment::VERTICAL_CE…...

RabbitMQ 之 死信队列
一、死信的概念 先从概念解释上搞清楚这个定义,死信,顾名思义就是无法被消费的消息,字面意思可以这样理 解,一般来说,producer 将消息投递到 broker 或者直接到 queue 里了,consumer 从 queue 取出消息进行…...
【创建型设计模式】单例模式
【创建型设计模式】单例模式 这篇博客接下来几篇都将阐述设计模式相关内容。 接下来的顺序大概是:单例模式、工厂方法模式、抽象工厂模式、建造者模式、原型模式。 一、什么是单例模式 单例模式是一种创建型设计模式,它保证一个类仅有一个实例&#…...

Charles抓包工具-笔记
摘要 概念: Charles是一款基于 HTTP 协议的代理服务器,通过成为电脑或者浏览器的代理,然后截取请求和请求结果来达到分析抓包的目的。 功能: Charles 是一个功能全面的抓包工具,适用于各种网络调试和优化场景。 它…...
Go语言使用 kafka-go 消费 Kafka 消息教程
Go语言使用 kafka-go 消费 Kafka 消息教程 在这篇教程中,我们将介绍如何使用 kafka-go 库来消费 Kafka 消息,并重点讲解 FetchMessage 和 ReadMessage 的区别,以及它们各自适用的场景。通过这篇教程,你将了解如何有效地使用 kafk…...

【论文笔记】Number it: Temporal Grounding Videos like Flipping Manga
🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。 基本信息 标题: Number it: Temporal Grou…...

C语言菜鸟入门·关键字·int的用法
目录 1. int关键字 1.1 取值范围 1.2 符号类型 1.3 运算 1.3.1 加法运算() 1.3.2 减法运算(-) 1.3.3 乘法运算(*) 1.3.4 除法运算(/) 1.3.5 取余运算(%) 1.3.6 自增()与自减(--) 1.3.7 位运算 2. 更多关键字 1. int关键字 int 是一个关键字࿰…...

基于企业微信客户端设计一个文件下载与预览系统
在企业内部沟通与协作中,文件分享和管理是不可或缺的一部分。企业微信(WeCom)作为一款广泛应用于企业的沟通工具,提供了丰富的API接口和功能,帮助企业进行高效的团队协作。然而,随着文件交换和协作的日益增…...

昇思MindSpore第七课---文本解码原理
1. 文本解码原理 文本解码是将模型的输出(通常是概率分布或词汇索引)转换为可读的自然语言文本的过程。在生成文本时,常见的解码方法包括贪心解码、束搜索(BeamSearch)、随机采样等。 2 实践 2.1 配置环境 安装mindn…...

C# 数据结构之【图】C#图
1. 图的概念 图是一种重要的数据结构,用于表示节点(顶点)之间的关系。图由一组顶点和连接这些顶点的边组成。图可以是有向的(边有方向)或无向的(边没有方向),可以是加权的ÿ…...

传输控制协议(TCP)和用户数据报协议(UDP)
一、传输控制协议(TCP) 传输控制协议(Transmission Control Protocol,TCP)是一种面向连接的、可靠的、基于字节流的传输层通信协议,由 IETF 的 RFC 793 定义。 它通过三次握手建立连接,确保数…...

【Python爬虫】Scrapy框架实战---百度首页热榜新闻
如何利用Scrapy框架实战提取百度首页热榜新闻的排名、标题和链接 一、安装Scrapy库 二、创建项目(以BaiduSpider为例) scrapy startproject BaiduSpider生成每个文件的功能: 二、 创建爬虫脚本(爬虫名:newsÿ…...

采用python3.12 +django5.1 结合 RabbitMQ 和发送邮件功能,实现一个简单的告警系统 前后端分离 vue-element
一、开发环境搭建和配置 #mac环境 brew install python3.12 python3.12 --version python3.12 -m pip install --upgrade pip python3.12 -m pip install Django5.1 python3.12 -m django --version #用于检索系统信息和进程管理 python3.12 -m pip install psutil #集成 pika…...
Qt 实现网络数据报文大小端数据的收发
1.大小端数据简介 大小端(Endianness)是计算机体系结构的一个术语,它描述了多字节数据在内存中的存储顺序。以下是大小端的定义和它们的特点: 大端(Big-Endian) 在大端模式中,一个字的最高有效…...

[译]Elasticsearch Sequence ID实现思路及用途
原文地址:https://www.elastic.co/blog/elasticsearch-sequence-ids-6-0 如果 几年前,在Elastic,我们问自己一个"如果"问题,我们知道这将带来有趣的见解: "如果我们在Elasticsearch中对索引操作进行全面排序会怎样…...

Java基于SpringBoot+Vue的藏区特产销售平台
博主介绍:✌程序员徐师兄、7年大厂程序员经历。全网粉丝12w、csdn博客专家、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ 🍅文末获取源码联系🍅 👇🏻 精彩专栏推荐订阅👇…...
进程地址空间(比特课总结)
一、进程地址空间 1. 环境变量 1 )⽤户级环境变量与系统级环境变量 全局属性:环境变量具有全局属性,会被⼦进程继承。例如当bash启动⼦进程时,环 境变量会⾃动传递给⼦进程。 本地变量限制:本地变量只在当前进程(ba…...
在HarmonyOS ArkTS ArkUI-X 5.0及以上版本中,手势开发全攻略:
在 HarmonyOS 应用开发中,手势交互是连接用户与设备的核心纽带。ArkTS 框架提供了丰富的手势处理能力,既支持点击、长按、拖拽等基础单一手势的精细控制,也能通过多种绑定策略解决父子组件的手势竞争问题。本文将结合官方开发文档,…...

深入理解JavaScript设计模式之单例模式
目录 什么是单例模式为什么需要单例模式常见应用场景包括 单例模式实现透明单例模式实现不透明单例模式用代理实现单例模式javaScript中的单例模式使用命名空间使用闭包封装私有变量 惰性单例通用的惰性单例 结语 什么是单例模式 单例模式(Singleton Pattern&#…...
AspectJ 在 Android 中的完整使用指南
一、环境配置(Gradle 7.0 适配) 1. 项目级 build.gradle // 注意:沪江插件已停更,推荐官方兼容方案 buildscript {dependencies {classpath org.aspectj:aspectjtools:1.9.9.1 // AspectJ 工具} } 2. 模块级 build.gradle plu…...

Linux 内存管理实战精讲:核心原理与面试常考点全解析
Linux 内存管理实战精讲:核心原理与面试常考点全解析 Linux 内核内存管理是系统设计中最复杂但也最核心的模块之一。它不仅支撑着虚拟内存机制、物理内存分配、进程隔离与资源复用,还直接决定系统运行的性能与稳定性。无论你是嵌入式开发者、内核调试工…...
JavaScript基础-API 和 Web API
在学习JavaScript的过程中,理解API(应用程序接口)和Web API的概念及其应用是非常重要的。这些工具极大地扩展了JavaScript的功能,使得开发者能够创建出功能丰富、交互性强的Web应用程序。本文将深入探讨JavaScript中的API与Web AP…...
【无标题】路径问题的革命性重构:基于二维拓扑收缩色动力学模型的零点隧穿理论
路径问题的革命性重构:基于二维拓扑收缩色动力学模型的零点隧穿理论 一、传统路径模型的根本缺陷 在经典正方形路径问题中(图1): mermaid graph LR A((A)) --- B((B)) B --- C((C)) C --- D((D)) D --- A A -.- C[无直接路径] B -…...
Java数值运算常见陷阱与规避方法
整数除法中的舍入问题 问题现象 当开发者预期进行浮点除法却误用整数除法时,会出现小数部分被截断的情况。典型错误模式如下: void process(int value) {double half = value / 2; // 整数除法导致截断// 使用half变量 }此时...

基于IDIG-GAN的小样本电机轴承故障诊断
目录 🔍 核心问题 一、IDIG-GAN模型原理 1. 整体架构 2. 核心创新点 (1) 梯度归一化(Gradient Normalization) (2) 判别器梯度间隙正则化(Discriminator Gradient Gap Regularization) (3) 自注意力机制(Self-Attention) 3. 完整损失函数 二…...
HybridVLA——让单一LLM同时具备扩散和自回归动作预测能力:训练时既扩散也回归,但推理时则扩散
前言 如上一篇文章《dexcap升级版之DexWild》中的前言部分所说,在叠衣服的过程中,我会带着团队对比各种模型、方法、策略,毕竟针对各个场景始终寻找更优的解决方案,是我个人和我司「七月在线」的职责之一 且个人认为,…...