当前位置: 首页 > news >正文

PyTorch深度学习实战(2)——PyTorch快速入门

PyTorch的简洁设计使得它易于入门,在深入介绍PyTorch之前,本文先介绍一些PyTorch的基础知识,以便读者能够对PyTorch有一个大致的了解,并能够用PyTorch搭建一个简单的神经网络。

1 Tensor

Tensor是PyTorch中最重要的数据结构,它可以是一个数(标量)、一维数组(向量)、二维数组(如矩阵、黑白图片等)或者更高维的数组(如彩色图片、视频等)。Tensor与NumPy的ndarrays类似,但Tensor可以使用GPU加速。下面通过几个示例了解Tensor的基本使用方法:

In: import torch as t
    t.__version__ # 查看pytorch的版本信息Out:'1.8.0'In: # 构建一个2×3的矩阵,只分配了空间未初始化,其数值取决于内存空间的状态
    x = t.Tensor(2, 3) # 维度:2×3
    xOut:tensor([[7.9668e-37, 4.5904e-41, 7.9668e-37],[4.5904e-41, 0.0000e+00, 0.0000e+00]])

注意:torch.Tensor()可以使用int类型的整数初始化矩阵的行、列数,torch.tensor()需要确切的数据值进行初始化。

In: y = t.Tensor(5)print(y.size())
    z = t.tensor([5]) # torch.tensor需要确切数值进行初始化print(z.size())
Out:torch.Size([5])
	torch.Size([1])
In: # 使用正态分布初始化二维数组
    x = t.rand(2, 3)  
    x
Out:tensor([[0.1533, 0.9600, 0.5278],[0.5453, 0.3827, 0.3212]])In: print(x.shape) # 查看x的形状
    x.size()[1], x.size(1) # 查看列的个数, 这两种写法等价Out:torch.Size([2, 3])(3, 3)
In: y = t.rand(2, 3)# 加法的第一种写法
    x + y
Out:tensor([[1.1202, 1.6476, 1.1220],[1.0161, 1.1325, 0.3405]])
In: # 加法的第二种写法
    t.add(x, y)
Out:tensor([[1.1202, 1.6476, 1.1220],[1.0161, 1.1325, 0.3405]])
In: # 加法的第三种写法:指定加法结果的输出目标为result
    result = t.Tensor(2, 3) # 预先分配空间
    t.add(x, y, out=result) # 输入到result
    result
Out:tensor([[1.1202, 1.6476, 1.1220],[1.0161, 1.1325, 0.3405]])
In: print('初始的y值')print(y)print('第一种加法,y的结果')
    y.add(x) # 普通加法,不改变y的值print(y)print('第二种加法,y的结果')
    y.add_(x) # inplace加法,y改变了print(y)
Out:初始的y值
    tensor([[0.9669, 0.6877, 0.5942],[0.4708, 0.7498, 0.0193]])
第一种加法,y的结果
    tensor([[0.9669, 0.6877, 0.5942],[0.4708, 0.7498, 0.0193]])
第二种加法,y的结果
    tensor([[1.1202, 1.6476, 1.1220],[1.0161, 1.1325, 0.3405]])

注意:函数名后面带下划线_的函数称为inplace操作,会修改Tensor本身。例如,x.add_(y)x.t_()会改变 xx.add(y)x.t()返回一个新的Tensor,x不变。

In: # Tensor的索引操作与NumPy类似
    x[:, 1]
Out:tensor([0.8969, 0.7502, 0.7583, 0.3251, 0.2864])Tensor和NumPy数组之间的相互操作非常容易且快速。对于Tensor不支持的操作,可以先转为NumPy数组进行处理,之后再转回Tensor。
In: a = t.ones(5) # 新建一个全1的Tensor
    a
Out:tensor([1., 1., 1., 1., 1.])
In: b = a.numpy() # Tensor → NumPy
    b
Out:array([1., 1., 1., 1., 1.], dtype=float32)
In: import numpy as np
    a = np.ones(5)
    b = t.from_numpy(a) # NumPy → Tensorprint(a)print(b) 
Out:[1. 1. 1. 1. 1.]
    tensor([1., 1., 1., 1., 1.], dtype=torch.float64)

因为Tensor和NumPy对象大多数情况下共享内存,所以它们之间的转换很快,几乎不会消耗资源。这也意味着,其中一个发生了变化,另外一个会随之改变。

In: b.add_(1) # 以下划线结尾的函数会修改自身print(b)print(a)  # Tensor和NumPy共享内存Out:tensor([2., 2., 2., 2., 2.], dtype=torch.float64)[2. 2. 2. 2. 2.]

如果想获取Tensor中某一个元素的值,那么可以使用索引操作得到一个零维度的Tensor(一般称为scalar),再通过scalar.item()获取具体数值。

In: scalar = b[0]
    scalar
Out:tensor(2., dtype=torch.float64)
In: scalar.shape # 0-dim 
Out:torch.Size([])
In: scalar.item() # 使用scalar.item()可以从中取出Python对象的数值Out:2.0
In: tensor = t.tensor([2]) # 注意和scalar的区别
    tensor, scalar
Out:(tensor([2]), tensor(2., dtype=torch.float64))
In: tensor.size(), scalar.size()
Out:(torch.Size([1]), torch.Size([]))
In: # 只有一个元素的tensor也可以调用tensor.item()
    tensor.item(), scalar.item()
Out:(2, 2.0)
In: tensor = t.tensor([3,4]) # 新建一个包含3,4两个元素的Tensor
    old_tensor = tensor
    new_tensor = old_tensor.clone()
    new_tensor[0] = 1111
    old_tensor, new_tensor
Out:(tensor([3, 4]), tensor([1111,    4]))

注意:t.tensor()tensor.clone()总是会进行数据拷贝,新的Tensor和原来的数据不再共享内存。如果需要共享内存,那么可以使用torch.from_numpy()或者tensor.detach()新建一个Tensor。

In: new_tensor = old_tensor.detach()
    new_tensor[0] = 1111
    old_tensor, new_tensorOut:(tensor([1111,    4]), tensor([1111,    4]))

在深度学习中,Tensor的维度特征十分重要。有时需要对Tensor的维度进行变换,针对该问题,PyTorch提供了许多快捷的变换方式,例如维度变换viewreshape,维度交换permutetranspose等。

在维度变换中,可以使用view操作与reshape操作来改变Tensor的维度,二者之间有以下区别。

  • view只能用于内存中连续存储的Tensor。如果Tensor使用了transposepermute等维度交换操作,那么Tensor在内存中会变得不连续。此时不能直接使用view操作,应该先将其连续化,即tensor.contiguous.view()
  • reshape操作不要求Tensor在内存中是连续的,直接使用即可。

下面举例说明几种维度变换操作:

In: x = t.randn(4, 4)
    y = x.view(16)
    z = x.view(-1, 8) # -1表示由其他维度计算决定print(x.size(), y.size(), z.size())
Out:torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])In: p = x.reshape(-1, 8)print(p.shape)
Out:torch.Size([2, 8])In: x1 = t.randn(2, 4, 6)
    o1 = x1.permute((2, 1, 0))
    o2 = x1.transpose(0, 2)print(f'o1 size {o1.size()}')print(f'o2 size {o2.size()}')
Out:o1 size torch.Size([6, 4, 2])
	o2 size torch.Size([6, 4, 2])

除了对Tensor进行维度变换,还可以针对Tensor的某些维度进行其他的操作。例如,tensor.squeeze()

可以进行Tensor的维度压缩、tensor.unsqueeze()可以扩展Tensor的维度、torch.cat()可以在Tensor指定维度上进行拼接等。

In: x = t.randn(3, 2, 1, 1)
    y = x.squeeze(-1)    # 将最后一维进行维度压缩
    z = x.unsqueeze(0)   # 在最前面增加一个维度
    w = t.cat((x, x), 0) # 在第一维度连接两个xprint(f'y size {y.shape}')print(f'z size {z.shape}')print(f'w size {w.shape}')Out:y size torch.Size([3, 2, 1])
	z size torch.Size([1, 3, 2, 1, 1])
	w size torch.Size([6, 2, 1, 1])

Tensor可以通过.cuda()方法或者.to(device)方法转为GPU的Tensor,从而享受GPU带来的加速运算。

In: # 在不支持CUDA的机器下,下一步还是在CPU上运行
    device = t.device("cuda:0" if t.cuda.is_available() else "cpu")
    x = x.to(device)
    y = y.to(x.device)
    z = x + y

此时,读者可能会发现GPU运算的速度并未提升太多,这是因为x和y的规模太小、运算简单,而且将数据从内存转移到显存需要额外的开销。GPU的优势需要在大规模数据和复杂运算下才能体现出来。

2 autograd:自动微分

在深度学习中,反向传播算法被用来计算梯度,其主要流程为通过梯度下降法来最小化损失函数,以此更新网络参数。PyTorch中的autograd模块实现了自动反向传播的功能,optim模块实现了常见的梯度下降优化方法。几乎所有的Tensor操作,autograd都能为它们提供自动微分,避免手动计算导数的复杂过程。

如果想要使用autograd功能,那么需要对求导的Tensor设置tensor.requries_grad=True,下面举例说明autograd模块的用法:

In: # 为Tensor设置requires_grad标识,代表着需要求导数# PyTorch会自动调用autograd对Tensor求导
    x = t.ones(2, 2, requires_grad=True)# 上一步等价于# x = t.ones(2,2)# x.requires_grad = True
    xOut:tensor([[1., 1.],[1., 1.]], requires_grad=True)In: y = x.sum()
    yOut:tensor(4., grad_fn=<SumBackward0>)In: y.grad_fn
Out:<SumBackward0 at 0x7fca878c8748>
In: y.backward() # 反向传播,计算梯度In: # y = x.sum() = (x[0][0] + x[0][1] + x[1][0] + x[1][1])# 每个值的梯度都为1
    x.grad 
Out:tensor([[1., 1.],[1., 1.]])

注意:grad在反向传播过程中是累加的(accumulated)。也就是说,反向传播得到的梯度会累加之前的梯度。因此,每次在进行反向传播之前需要把梯度清零。

In: y.backward()
    x.gradOut:tensor([[2., 2.],[2., 2.]])In: y.backward()
    x.gradOut:tensor([[3., 3.],[3., 3.]])In: # 以下划线结束的函数是inplace操作,会修改自身的值,如add_
    x.grad.data.zero_()Out:tensor([[0., 0.],[0., 0.]])In: y.backward()
    x.grad # 清零后计算得到正确的梯度值Out:tensor([[1., 1.],[1., 1.]])In: a = t.randn(2, 2)
    a = ((a * 3) / (a - 1))print(a.requires_grad)
    a.requires_grad_(True)print(a.requires_grad)
    b = (a * a).sum()print(b.grad_fn)
Out:FalseTrue<SumBackward0 object at 0x7fca87873128>

3 神经网络

虽然autograd实现了反向传播功能,但是直接用它来写深度学习的代码还是稍显复杂。torch.nn是专门为神经网络设计的模块化接口,它构建于autograd之上,可以用来定义和运行神经网络。nn.Modulenn中最重要的类,它可以看作是一个神经网络的封装,包含神经网络各层的定义以及前向传播(forward)方法,通过forward(input)可以返回前向传播的结果。下面以最早的卷积神经网络LeNet1为例,来看看如何用nn.Module实现该网络结构,LeNet的网络结构如图2-10所示。

[^1]: 
@article{lecun1998gradient,
  title={Gradient-based learning applied to document recognition},
  author={LECUN Y, BOTTOU L, BENGIO Y, et al},
  journal={Proceedings of the IEEE},
  volume={86},
  number={11},
  pages={2278--2324},
  year={1998},
  publisher={Ieee}
}

LeNet共有7层,它的输入图像的大小为$32 \times 32$,共经过2个卷积层、2次下采样操作以及3个全连接层得到最终的10维输出。在实现该网络之前,这里先对神经网络的通用训练步骤进行说明。

(1)定义一个包含可学习参数的神经网络。

(2)加载用于训练该网络的数据集。

(3)进行前向传播得到网络的输出结果,计算损失(网络输出结果与正确结果的差距)。

(4)进行反向传播,更新网络参数。

(5)保存网络模型。

3.1 定义网络

在定义网络时,模型需要继承nn.Module,并实现它的forward方法。其中,网络里含有可学习参数的层应该放在构造函数__init__()中,如果某一层(如ReLU)不含有可学习参数,那么它既可以放在构造函数中,又可以放在forward方法中。这里将这些不含有可学习参数的层放在forward方法中,并使用nn.functional实现:

In: import torch.nn as nnimport torch.nn.functional as Fclass Net(nn.Module):def __init__(self):# nn.Module子类的函数必须在构造函数中执行父类的构造函数# 下式等价于nn.Module.__init__(self)super().__init__()# 卷积层,'1'表示输入图片为单通道, '6'表示输出通道数,'5'表示卷积核为5×5
            self.conv1 = nn.Conv2d(1, 6, 5) # 卷积层,'6'表示输入图片为单通道, '16'表示输出通道数,'5'表示卷积核为5×5
            self.conv2 = nn.Conv2d(6, 16, 5) # 仿射层/全连接层,y = Wx + b
            self.fc1 = nn.Linear(16 * 5 * 5, 120) 
            self.fc2 = nn.Linear(120, 84)
            self.fc3 = nn.Linear(84, 10)def forward(self, x): # 卷积 -> 激活 -> 池化 
            x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
            x = F.max_pool2d(F.relu(self.conv2(x)), 2) # 改变Tensor的形状,-1表示自适应
            x = x.view(x.size()[0], -1) 
            x = F.relu(self.fc1(x))
            x = F.relu(self.fc2(x))
            x = self.fc3(x)        return x    net = Net()print(net)Out:Net((conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))(conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))(fc1): Linear(in_features=400, out_features=120, bias=True)(fc2): Linear(in_features=120, out_features=84, bias=True)(fc3): Linear(in_features=84, out_features=10, bias=True))

用户只需要在nn.Module的子类中定义了forward函数,backward函数就会自动实现(利用autograd)。在forward函数中不仅可以使用Tensor支持的任何函数,还可以使用if、for、print、log等Python语法,写法和标准的Python写法一致。

使用net.parameters()可以得到网络的可学习参数,使用net.named_parameters()可以同时得到网络的可学习参数及其名称,下面举例说明:

In: params = list(net.parameters())print(len(params))
Out:10In: for name, parameters in net.named_parameters():print(name, ':', parameters.size())
Out:conv1.weight : torch.Size([6, 1, 5, 5])
    conv1.bias : torch.Size([6])
    conv2.weight : torch.Size([16, 6, 5, 5])
    conv2.bias : torch.Size([16])
    fc1.weight : torch.Size([120, 400])
    fc1.bias : torch.Size([120])
    fc2.weight : torch.Size([84, 120])
    fc2.bias : torch.Size([84])
    fc3.weight : torch.Size([10, 84])
    fc3.bias : torch.Size([10])In: input = t.randn(1, 1, 32, 32)
    out = net(input)
    out.size()
Out:torch.Size([1, 10])In: net.zero_grad() # 所有参数的梯度清零
    out.backward(t.ones(1, 10)) # 反向传播

注意:torch.nn只支持输入mini-batch,不支持一次只输入一个样本。如果只输入一个样本,那么需要使用 input.unsqueeze(0)将batch_size设为1。例如, nn.Conv2d的输入必须是4维,形如$\text{nSamples} \times \text{nChannels} \times \text{Height} \times \text{Width}$ 。如果一次输入只有一个样本,那么可以将$\text{nSample}$ 设置为1,即$1 \times \text{nChannels} \times \text{Height} \times \text{Width}$ 。

3.2 损失函数

torch.nn实现了神经网络中大多数的损失函数,例如nn.MSELoss用来计算均方误差,nn.CrossEntropyLoss用来计算交叉熵损失等,下面举例说明:

In: output = net(input)
    target = t.arange(0, 10).view(1, 10).float() 
    criterion = nn.MSELoss()
    loss = criterion(output, target)
    loss 
Out:tensor(28.1249, grad_fn=<MseLossBackward>)

对loss进行反向传播溯源(使用gradfn属性),可以看到上文实现的LeNet的计算图如下:

input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d  -> view -> linear -> relu -> linear -> relu -> linear -> MSELoss-> loss

当调用loss.backward()时,计算图会动态生成并自动微分,自动计算图中参数(parameters)的导数,示例如下:

In: # 运行.backward,观察调用之前和调用之后的grad
    net.zero_grad() # 把net中所有可学习参数的梯度清零print('反向传播之前 conv1.bias的梯度')print(net.conv1.bias.grad)
    loss.backward()print('反向传播之后 conv1.bias的梯度')print(net.conv1.bias.grad)
Out:反向传播之前 conv1.bias的梯度
    tensor([0., 0., 0., 0., 0., 0.])
    反向传播之后 conv1.bias的梯度
    tensor([ 0.0020, -0.0619,  0.1077,  0.0197,  0.1027, -0.0060])

3.3 优化器

在完成反向传播中所有参数的梯度计算后,需要使用优化方法来更新网络的权重和参数。常用的随机梯度下降法(SGD)的更新策略如下:

weight = weight - learning_rate * gradient

用户可以手动实现这一更新策略:

learning_rate = 0.01
for f in net.parameters():
    f.data.sub_(f.grad.data * learning_rate) # inplace减

torch.optim中实现了深度学习中大多数优化方法,例如RMSProp、Adam、SGD等,因此,通常情况下用户不需要手动实现上述代码。下面举例说明如何使用torch.optim进行网络的参数更新:

In: import torch.optim as optim#新建一个优化器,指定要调整的参数和学习率
    optimizer = optim.SGD(net.parameters(), lr = 0.01)# 在训练过程中# 先梯度清零(与net.zero_grad()效果一样)
    optimizer.zero_grad() # 计算损失
    output = net(input)
    loss = criterion(output, target)#反向传播
    loss.backward()#更新参数
    optimizer.step()

3.4 数据加载与预处理

在深度学习中,数据加载及预处理是非常繁琐的过程。幸运的是,PyTorch提供了一些可以极大简化和加快数据处理流程的工具:DatasetDataLoader。同时,对于常用的数据集,PyTorch提供了封装好的接口供用户快速调用,这些数据集主要保存在torchvision中。torchvision是一个视觉工具包,它提供了许多视觉图像处理的工具,主要包含以下三部分。

  • datasets:提供了常用的数据集,如MNIST、CIFAR-10、ImageNet等。
  • models:提供了深度学习中经典的网络结构与预训练模型,如ResNet、MobileNet等。
  • transforms:提供了常用的数据预处理操作,主要包括对Tensor、PIL Image等的操作。

读者可以使用torchvision方便地加载数据,然后进行数据预处理,这部分内容会在本书第5章进行详细介绍。

相关文章:

PyTorch深度学习实战(2)——PyTorch快速入门

PyTorch的简洁设计使得它易于入门&#xff0c;在深入介绍PyTorch之前&#xff0c;本文先介绍一些PyTorch的基础知识&#xff0c;以便读者能够对PyTorch有一个大致的了解&#xff0c;并能够用PyTorch搭建一个简单的神经网络。 1 Tensor Tensor是PyTorch中最重要的数据结构&#…...

ServletConfig、ServletContext超详细讲解

文章目录 前言一、ServletConfig的使用1.ServletConfig定义2.ServletConfig的API3.ServletConfig的测试代码&#xff1a; 二、 ServletContext的使用1.ServletContext定义2.ServletContext如何用3. ServletContext其他重要API 总结 前言 ServletConfig接口代表了Servlet的配置信…...

【文献阅读】GraphAny: A Foundation Model for Node Classification on Any Graph

Abstract 可以执行任何新任务而无需特定训练的基础模型已经在视觉和语言应用中引发了机器学习的革命。然而&#xff0c;涉及图结构数据的应用仍然是基础模型面临的一个难题&#xff0c;因为每个图都有独特的特征和标签空间。传统的图机器学习模型&#xff0c;如图神经网络&…...

动态规划.

目录 &#xff08;一&#xff09;递归到动规的一般转化方法 &#xff08;二&#xff09;动规解题的一般思路 1. 将原问题分解为子问题 2. 确定状态 3. 确定一些初始状态&#xff08;边界状态&#xff09;的值 4. 确定状态转移方程 &#xff08;三&#xff09;能用动规解…...

PHP常用函数

字符串 strlen()获取字符串长度strpos&#xff08;&#xff09;在字符串内查找一个字符或一段指定的文本&#xff0c;返回第一次出现的位置或falsestripos&#xff08;&#xff09;同上&#xff0c;但不区分大小写strrpos&#xff08;&#xff09;同上上&#xff0c;返回最后一…...

完全用python 实现消息中间件4

为了进一步完善这个消息中间件&#xff0c;我们可以添加以下功能&#xff1a; 消息确认&#xff1a;客户端可以发送一个确认消息&#xff0c;表明消息已经被正确接收。消息队列&#xff1a;使用一个队列来存储消息&#xff0c;而不是直接存储在字典中。多消费者支持&#xff1…...

公司新来的两个Java后端,因题背太熟轻松过面试?

以前面试是背八股文&#xff0c;而2024年的后端面试都是流行问场景题&#xff01;建议大家把面试想简单一点&#xff0c;顺的场景题直接给有需要的人&#xff0c;希望能对大家有所帮助&#xff01; 由于平台篇幅原因&#xff0c;很多java面试资料内容展示不了&#xff0c;需要…...

Pinia状态管理库

为了跨组件传递JWT令牌&#xff0c;我们就会利用Pinia状态管理库&#xff0c;它允许跨组件或页面共享状态。 使用Pinia步骤&#xff1a; 安装pinia&#xff1a;cnpm install pinia 在vue应用实例中使用pinia 在src/stores/token.js中定义store 在组件中使用store 1.在main.js文…...

利用ffmpeg转码视频为gif图片,调整gif图片的大小

【1】压缩gif图片大小 一般发布技术文章的时候经常要插入GIF图演示软件效果&#xff0c;但是一些编辑器总是限制大小&#xff0c;但是录制的时候可能一不小心就搞大了。 要将 GIF 图片大小限制在 10MB 内&#xff0c;可以使用 FFmpeg 进行压缩。 以下是一个ffmpeg的命令&…...

【Java 第四篇章】流程控制、容器

一、流程控制 1、概念 //1.if//2.if...else//3.if...else if...else...//4.switch//5.跳出循环体&#xff1a;break和continue2、语法 //1. ifif(条件表达式){//执行代码块}//2.if...elseif(条件表达式){//条件表达式为真执行的代码块} else {//条件表达式为假执行的代码块}//…...

华为云全域Serverless技术创新:全球首创通用Serverless平台被ACM SIGCOMM录用

华为开发者大会2024&#xff08;HDC 2024&#xff09;在东莞松山湖圆满结束&#xff0c;期间华为云主办的“全域Serverless时代&#xff1a;技术创新引领&#xff0c;赋能行业实践”专题论坛&#xff0c;向广大开发者传递了Serverless领域的前沿思考和实践&#xff0c;现场座无…...

除自身以外数组的相乘 C++

给你一个整数数组 nums&#xff0c;返回 数组 answer &#xff0c;其中 answer[i] 等于 nums 中除 nums[i] 之外其余各元素的乘积 。 题目数据 保证 数组 nums之中任意元素的全部前缀元素和后缀的乘积都在 32 位 整数范围内。 请 不要使用除法&#xff0c;且在 O(n) 时间复杂…...

Element UI 如何配置文件来设置全局的语言选项。

Element UI 允许你通过配置文件来设置全局的语言选项&#xff0c;这样你可以方便地切换组件的语言。以下是如何配置 Element UI 以设置全局语言选项的步骤&#xff1a; 1. 安装 Element UI 确保你已经安装了 Element UI。 npm install element-ui --save2. 引入语言包 Elem…...

Windows 常用命令集锦

目录 一、文件和目录管理 1.1 文件操作 1.2 目录操作 二、系统信息 2.1 基本系统信息 2.2 硬件信息 三、网络管理 3.1 基本网络命令 3.2 网络诊断 四、进程管理 4.1 查看进程 4.2 管理进程 五、磁盘管理 5.1 磁盘操作 5.2 磁盘分区 六、IIS操作 通过上述命令&am…...

第一阶段面试问题(后半部分)

1. c语言中const *p的用法 &#xff08;1&#xff09;const int *p; 或 int const *p; 指向常量整数的指针&#xff0c;通过这个指针不能修改它所指向的整数值&#xff0c;但可以修改指针本身来指向其他地址 const int a 10; const int *p &a; // *p 20; // 错误&…...

【AIGC】ComfyUI入门-使用ComfyUI_MagicClothing插件在生成图片时候出现的问题

最近想自己实现自动换装的工作流,在使用ComfyUI_MagicClothing插件的时候,出现了一个奇怪的问题。这个问题不是插件的问题,是环境配置问题。 问题内容如下: Exception during processing!!! D:\a_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:891 onnxrunti…...

巴黎奥运会8K转播科技为国产品牌自主研发设计

这个夏天&#xff0c;顶流是属于巴黎奥运会中国队的。 20枚金牌、15枚银牌、12枚铜牌......这个数字正随着赛事推进而不停在增加。赛场之上&#xff0c;中国健儿奋力拼搏、捷报频传&#xff0c;令人热血沸腾&#xff1b;赛场之外&#xff0c;另一支来自中国企业的“奥运选手”…...

【Material-UI】Button 组件中的图标和标签按钮(Buttons with Icons and Label)详解

文章目录 一、基础用法1. 左侧图标&#xff08;startIcon&#xff09;2. 右侧图标&#xff08;endIcon&#xff09; 二、图标与标签的搭配三、高级用法和最佳实践1. 自定义图标2. 视觉一致性3. 动态图标 四、总结 在现代用户界面设计中&#xff0c;图标在提高用户体验&#xff…...

K个一组翻转链表(LeetCode)

题目 给你链表的头节点 &#xff0c;每 个节点一组进行翻转&#xff0c;请你返回修改后的链表。 是一个正整数&#xff0c;它的值小于或等于链表的长度。如果节点总数不是 的整数倍&#xff0c;那么请将最后剩余的节点保持原有顺序。 你不能只是单纯的改变节点内部的值&…...

2-56 基于matlab的图像融合增强技术

基于matlab的图像融合增强技术。通过原始图像——傅里叶变换——频率域滤波处理——傅里叶变换——增强后的图像。傅立叶变换以及傅立叶反变换.过程就是将空间的信息分解为在频率上的表示,通过傅立叶正反变换的处理,才使得频率域上的处理可以用于图像的增强。程序已调通&#x…...

序列化定义以及使用和注意事项

什么是序列化和反序列化 序列化&#xff1a;是将对象转换为可传输或存储的过程&#xff0c; 反序列化&#xff1a;通常是将字节流或是其他数据格式或源数据转为对象的过程。 序列化的作用 对象的持久化&#xff1a;将对象的状态保存到磁盘或数据库中&#xff0c;以便在程序…...

吴恩达机器学习COURSE1 WEEK3

COURSE1 WEEK3 逻辑回归 逻辑回归主要用于分类任务 只有两种输出结果的分类任务叫做二元分类&#xff0c;例如预测垃圾邮件&#xff0c;只能回答是或否 实际上&#xff0c;在逻辑回归中&#xff0c;我们要做的任务就类似于在数据集中画出一个这样的曲线&#xff0c;用来作为…...

白骑士的PyCharm教学高级篇 3.1 性能分析与优化

系列目录 上一篇&#xff1a;白骑士的PyCharm教学进阶篇 2.5 数据库连接与管理 在软件开发中&#xff0c;性能分析与优化是提高程序运行效率和用户体验的重要环节。PyCharm提供了强大的性能分析工具&#xff0c;帮助你识别和优化代码中的性能瓶颈。本文将详细介绍PyCharm中的代…...

swiper横向轮播(阶梯式滚动轮播)未生效

问题描述 版本问题 使用swiper4以上的版本可以解决该问题&#xff0c;4以上的swiper采用了this指向。...

基于arcpro3.0.2的北斗网格生成简介

基于arcpro3.0.2的北斗网格生成简介 采用2000坐标系、可基于行政区范围 软件可生成第一级到第十级北斗网格经纬跨度 等分 约赤道处距离 第一级 6X4度 60 和A~V 660 km 第二级 30X30分 12X8 …...

网络流算法:最大流问题

引言 最大流问题是网络流中的一个经典问题&#xff0c;其目标是在给定的流网络中找到从源点到汇点的最大流量。最大流问题在交通运输、计算机网络、供应链管理等领域有广泛的应用。本文将详细介绍最大流问题的定义、解决方法以及具体算法实现。 目录 最大流问题的定义Ford-F…...

C++从入门到入土(四)--日期类的实现

目录 前言 日期类的实现 日期的获取 日期的比较 const成员函数 日期的加减 日期的加等 日期的减等 日期的加减 日期的加加减减 日期的相减 流插入和提取的重载 友元 友元的特点 日期类代码 总结 前言 前面我们介绍了C中类和对象的相关知识和六个默认成员函数&…...

【香橙派系列教程】(七)香橙派下的Python3安装

【七】香橙派下的Python3安装 为接下来的Linux图像识别智能垃圾桶做准备。 图像处理使用京东SDK只支持pyhton和Java接口&#xff0c;目的是引入C语言的Python调用&#xff0c;感受大厂做的算法bug 此接口是人工智能接口&#xff0c;京东识别模型是通过训练后的模型&#xff0c;…...

贝叶斯优化算法(Bo)与门控循环单元(GRU)结合的预测模型(Bo-GRU)及其Python和MATLAB实现

### 背景 随着时间序列数据在各个领域&#xff08;如金融、气象、医疗等&#xff09;应用的日益广泛&#xff0c;如何准确地预测未来的数据点成为了一个重要的研究方向。长短期记忆网络&#xff08;LSTM&#xff09;和门控循环单元&#xff08;GRU&#xff09;作为深度学习模型…...

人工智能时代,程序员当如何保持核心竞争力?

目录 前言 一.AI辅助编程对程序员工作的影响 二.程序员应重点发展的核心能力 三.人机协作模式下的职业发展规划 结束语 前言 随着AIGC&#xff08;如chatgpt、midjourney、claude等&#xff09;大语言模型接二连三的涌现&#xff0c;AI辅助编程工具日益普及&#xff0c;程序…...