当前位置: 首页 > news >正文

Stable Diffusion训练LoRA模型参数详细说明(阿里巴巴堆友AI)

工具:线上模型训练堆友AI

一、训练参数

批量大小 (Batch Size)

  • 作用:每次训练中使用的样本数量。
  • 参考值:可以从 864,取决于显存大小。

训练轮数 (Epochs)

  • 作用:完整遍历训练数据的次数。
  • 参考值:通常在 1050 之间。

批次大小

  • 作用:批次大小是每次迭代中输入模型的样本数量。它在训练深度学习模型时非常重要,因为它影响模型的收敛速度和训练稳定性。较大的批次大小通常会加速训练并使损失曲线更加平滑,但可能需要更多的内存和计算资源。
  • 参考值
  1. 小型网络:例如 16、32
  2. 中型网络:例如 64、128
  3. 大型网络:例如 256、512

一般来说,批次大小不应超过显存的承载能力。常见的选择是 32、64、128。

训练混合精度

  • 作用:混合精度训练指的是在训练过程中同时使用16位和32位浮点数,以加快训练速度并节省显存。使用半精度 (16位) 可以减少内存使用,同时通过合适的缩放策略来保持数值稳定性。混合精度训练对现代 GPU(如 NVIDIA 的 RTX 系列)支持良好,可以实现更高的吞吐量。
  • 参考值
  • 在支持混合精度的环境(如使用 TensorFlow 和 PyTorch 的适当 API)下,可以直接使用。例如,使用 TensorFlow 的 tf.keras.mixed_precision.set_global_policy('mixed_float16')

需要说明的是,在选择使用混合精度时,建议确保硬件和库的支持,通常情况下,最常见的选择是启用混合精度。

二、样图设置

样图分辨率

  • 作用:样图分辨率指的是输入图像的像素尺寸,通常以宽度x高度(例如,512x512等)的形式表示。分辨率影响模型生成图像的细节及质量,较高的分辨率能够提供更多的细节,但也需要更大的计算资源。
  • 参考值
  1. 256x256:适用于基础任务或资源有限的情况
  2. 512x512:常用的中等分辨率,适合大多数生成任务
  3. 1024x1024或更高:用于高质量生成要求,如艺术作品或复杂场景

随机种子数

  • 作用:随机种子数是一个用于初始化随机数生成器的值,确保训练或生成过程的可重复性。使用相同的种子数可以得到相同的随机结果,这在调试和实验中非常重要。
  • 参考值:通常为任意整数。建议固定一个值以便于后续的实验对比。

采样方式

  • 作用:采样方式决定了在生成图像时如何从模型的潜在空间中选择样本。不同的采样技术会影响生成图像的多样性和质量。
  • 参考值
  1. 随机采样(Random Sampling):简单且快速,但可能导致生成结果不稳定
  2. 温度采样(Top-k或Top-p Sampling):通过限制选择的候选范围来提高生成质量
  3. 幂律分布采样(Nucleus Sampling):将概率之和限制在特定的阈值内,以防止选择低概率的样本

提示词

  • 作用:提示词是给模型输入的文字描述,用于引导生成过程。提示词的质量直接影响生成图像的相关性和满意度。
  • 参考值:提示词应简洁明了,例如"一只在森林中漫步的狐狸"。使用具体的细节和形容词可以获得更准确的结果。

负向提示词

  • 作用:负向提示词是用来告诉模型在生成图像时应避免的特征或内容。这对于消除不必要的元素、控制生成结果的方向非常有用。
  • 参考值:负向提示词应明确,通常包括不希望出现的对象或属性,例如“无文字、无模糊”。使用有效的负向提示词可以提高生成图像的质量和准确性。

三、保存设置

每N轮保存一个LoRA

  • 作用:
  1. 检查点保存:在训练过程中,尤其是长时间训练的情况下,保存模型可以避免因为意外情况(如崩溃或中断)丢失训练进度。
  2. 模型版本管理:随着训练的进行,模型参数会不断变化。定期保存可以帮助研究人员回顾不同版本的模型,进行比较,以选择最佳的模型。
  3. 减少过拟合风险:通过观察不同轮次上保存的模型性能,可以判断是否出现了过拟合现象,从而选择最佳的模型参数。
  4. 恢复训练:如果训练由于某种原因被终止,可以从最近的保存点继续训练,而不必从头开始。
  • 参考值:
  • N的选择:N的具体值通常取决于几个因素,包括但不限于:
  1. 训练数据集的大小与复杂度
  2. 实验的目标(如需要更精细的模型调优)
  3. 训练过程中的计算资源(如GPU的使用情况)
  4. 模型的结构与参数量

常见的参考值可能在10到100之间。例如,对于小型数据集和简单模型,可能选择每10轮保存一次,而对于复杂模型或大数据集,则可能选择每50或100轮保存一次。

LoRA保存精度

  • 作用:保存精度指的是在训练过程中使用的数据精度(如浮点数的位数)。常见的有FP32(32位浮点数)、FP16(16位浮点数)等。使用低精度可以减少显存占用,提高训练速度,但可能会影响模型的收敛性和准确性。
  • 参考值:FP16常用于加速训练,尤其是在支持Tensor Core的硬件上。FP32则适合对精度要求高的任务。

四、学习率&优化器

总学习率

  • 作用:总学习率是模型所有参数的学习率,它控制着模型学习的步幅大小。较高的学习率可能导致训练不稳定,而较低的学习率则可能使模型收敛速度缓慢。
  • 参考值:常用的总学习率范围为1e-51e-4,具体值需要根据任务和网络架构进行调整。

Unet学习率

  • 作用:这是专门为Unet网络部分设置的学习率,用于分别调整其学习参数。Unet是处理图像相关任务的重要部分,可能需要单独优化。
  • 参考值:一般建议设置为1e-41e-5

文本编码学习率

  • 作用:与Unet学习率类似,这是用于文本编码器部分的学习率。文本编码器通常用于处理语言相关的输入,因此也需要单独优化。
  • 参考值:通常设置为1e-55e-5

学习率预热(%)

  • 作用:学习率预热是指在训练初期逐渐增加学习率以避免模型不稳定。这一方法有效确保模型在早期能够平稳地找到合适的收敛区间。
  • 参考值:建议预热期占总训练周期的5%10%,具体可以根据训练的稳定性调整。

学习率调度器

  • 作用:这是一种动态调整学习率的策略,通常在训练过程中根据epoch或batch的变化来调整学习率,以提高收敛效率。
  • 参考值

Linear

线性调度器按照线性函数逐渐降低学习率。通常,学习率从初始值开始以一定的速率减少到最终值。这种方法简单易懂,适合于一些简单的训练过程。

Cosine

余弦调度器基于余弦函数,学习率在训练过程中呈现余弦曲线的形状。这意味着学习率在训练开始时快速减小,之后逐渐趋近于零。该方法有助于在训练的后期进行精细调整。

Cosine with Restarts

余弦重启调度器在基本的余弦调度器上进行了改进,允许学习率在一定的周期内进行多次重启。每次重启时,学习率从较高的值开始,并按照余弦函数降低。这种方法可以帮助模型在多个局部最优之间进行更好的探索。

Polynomial

多项式调度器学习率遵循多项式函数进行调整。用户可以设置多项式的次数,以及学习率从初始值下降到最低值的方式。这种方法可以提供相对平滑的学习率变化,但设置的参数较多。

Constant

常量调度器在整个训练期间保持学习率不变。虽然简单,但在某些情况下可能无法很好地适应训练动态,容易导致训练过程中的震荡或收敛不良。

Constant with Warmup

常量带热身调度器在训练初期采用一个小的学习率逐渐增加到预设的常量学习率。这种热身策略有助于在训练初期稳定模型参数,避免大梯度带来的不稳定性。

总的来说,选择合适的学习率调度器依赖于具体的任务和数据集。调度策略的选用和调整可以对训练结果产生显著影响。

优化器

  • 作用:优化器是用于更新网络权重的算法。不同的优化器对训练效果和收敛速度有不同的影响。
  • 参考值

AdamW

AdamW是Adam优化器的一种变体。它在Adam的基础上,引入了权重衰减(weight decay)来防止过拟合。AdamW通过将权重衰减与更新规则分离,能更有效地管理优化过程,尤其是在深度学习中表现良好。

AdamW8bit

AdamW8bit是一种改进版本,将AdamW的参数存储精度降低到8位。这减少了内存使用和计算负担,适用于大模型的训练,尤其在GPU内存有限的环境中。

PagedAdamW8bit

PagedAdamW8bit在AdamW8bit的基础上进一步优化,通过将参数分片或分页,以更有效地处理内存,适合在更小的GPU内存中训练大型模型。

Lion

Lion是一种新的优化器,通常被认为在某些环境下比Adam更有效。它在梯度更新时引入了方向的概念,通常在收敛速度和稳健性上表现更好。

Lion8bit

Lion8bit是Lion优化器的8位版本,通过降低存储精度来减少内存使用。它适用于大型模型和资源受限的环境。

PagedLion8bit

PagedLion8bit在Fat Duck格的基础上,进一步优化内存使用,适合在内存受限的环境中训练大型深度学习模型。

SGDNesterov

SGDNesterov是对SGD优化器的一个改进,结合了Nesterov加速的方法。生成的梯度更具前瞻性,通常可以更快地收敛。

SGDNesterov8bit

SGDNesterov8bit是SGDNesterov的8位版本,旨在减少内存占用,适合在深度学习大型模型的训练中使用。

DAdaptation

DAdaptation是一种自适应优化器,它利用数据的特点评估学习率,以在训练过程中的不同阶段进行调整。

DAdaptAdam

DAdaptAdam是一个结合了Adaptive方法(如Adam)和数据自适应的方法,旨在提升模型训练的效率和效果。

DAdaptAdaGrad

DAdaptAdaGrad是AdaGrad的一种自适应变体,利用数据特征动态调整学习速率,提高收敛速度。

DAdaptAdanIP

DAdaptAdanIP结合了Adan优化器与自适应特征,以更好地满足各种训练条件。

DAdaptLion

DAdaptLion结合了Lion优化器与自适应机制,旨在实现更佳的收敛性和效果。

DAdaptSGD

DAdaptSGD是对SGD的自适应变体,根据特定的特征和情况动态调整学习率,提升训练效率。

AdaFactor

AdaFactor是一种内存高效的优化器,特别适用于处理大型模型。它通过引入分解的梯度和新颖的学习率调整技术,来减少训练中的内存占用。

Prodigy

Prodigy是一种先进的优化器,通常结合了一系列现代优化技术,旨在高效地训练大型模型,增强学习效果和收敛速度。

重启次数

  • 作用:这是在训练时允许的学习率重启次数,重启可以帮助模型避免局部最优并尝试新的学习周期。
  • 参考值:一般设置为13次,根据训练需求调整。

仅训练Unet

  • 作用:这一参数用于指定训练时是否仅更新Unet部分的权重,适用于模型分阶段训练的情况。
  • 参考值:通常在迁移学习的初期,可能只训练Unet部分,之后再训练其他部分。

仅训练文本编码器

  • 作用:与仅训练Unet类似,此参数用来指定训练时是否仅更新文本编码器的权重。
  • 参考值:此策略通常用于处理文本输入的模型调整,可以在训练过程中阶段性地训练文本编码器。

五、数据集设置

图片分辨率

  • 作用:图片分辨率指的是输入图片的宽度和高度(以像素为单位)。分辨率会影响模型的训练效果和推理速度。高分辨率可以提供更多的细节信息,但也会增加训练时间和计算资源消耗。
  • 参考值:常见的分辨率是224x224、256x256、512x512等,根据具体任务而定。

是否启动arb桶

  • 作用:ARB桶是一种动态调整输入分辨率的方法,依据任务需求和模型性能自动选择最适合的分辨率,可以提高训练效率和模型精度。
  • 参考值:一般可选择“是”或“否”。如果任务具有多样性,启动ARB桶可以带来更好的效果。

arb桶最小分辨率

  • 作用:设定在使用 ARB 策略时,允许输入的最低分辨率。较低的分辨率可以减少计算资源消耗,但可能损失部分细节信息。
  • 参考值:通常设置为64x64、128x128或256x256,具体视场景而定。

arb分桶最大分辨率

  • 作用:设定在使用 ARB 策略时,允许输入的最高分辨率。较高的分辨率可以提高模型的分类或检测精度,但也会增加计算负担。
  • 参考值:可设定为512x512、1024x1024,具体取决于可用的计算资源和训练任务的需求。

arb分桶最大分辨率划分单位

  • 作用:这个参数通常用于定义在 ARB 策略下如何对最大分辨率进行划分的粒度。它影响分辨率变化的灵活性和训练的适应性。
  • 参考值:可以设定为16像素、32像素等,具体依据最大分辨率和整体训练需求进行调整。

六、网络设置

网络大小

  • 作用:网络大小通常指模型的参数数量或层数,它直接影响模型的表现力和训练时间。更大的网络可能捕捉到更多的数据特征,但也更易过拟合。
  • 参考值:常见的文本或图像模型(如BERT、ResNet)可能包含数百万到数十亿的参数。选择时需考虑任务的复杂性与可用的计算资源。

网络额外参数

  • 作用:在LoRA中,引入的额外参数用于适应低秩矩阵分解,这些参数在微调时更新,而主模型参数保持不变。这种设计旨在减少训练时的参数更新量,同时保持模型的表现。
  • 参考值:额外参数的数量通常可以设定为主模型参数的1%到5%,具体取决于任务的复杂程度。

网络Alpha

  • 作用:网络Alpha通常是LoRA中的一个超参数,它控制低秩适应矩阵的缩放因子。Alpha越大,表示网络将对低秩适应的贡献越大,从而可能提升模型的表现,但也可能导致过拟合。
  • 参考值:一般选择范围在16到64之间,具体值可以通过实验调优以适应不同的任务和数据集。

七、打标设置

打乱标签

  • 作用:打乱标签的主要目的是增加模型的鲁棒性,防止模型学习到标签的顺序或模式,从而提高其泛化能力。这在数据集较小或存在某种潜在依赖性的情况下尤其重要。
  • 参考值:通常在每个epoch开始时打乱一次,或者在每个batch中打乱。可以设置为布尔值(True/False),一般情况下,推荐使用True。

使用带权重token

  • 作用:带权重token的设置用于处理不平衡的数据集。当某些类别的样本数量远多于其他类别时,可以给这些类别的token分配较小的权重,而给稀有类别的token分配较大的权重,从而使得模型在训练时更加关注这些稀有类别。
  • 参考值:权重的设置通常依赖于具体的任务和数据集的类别分布。可以通过类别频率计算权重,通常在(0.5到10)之间(例如,稀有类别权重为5,常见类别权重为1)。

保持N个token

  • 作用:保持一定数量的token可以用于控制输入的序列长度,确保模型处理的输入不会超过其最大处理能力(如学习到的上下文信息),并提高训练效率。
  • 参考值:通常,N的取值在1到512之间,具体要根据模型的架构来决定。例如,BERT模型在其训练中常用的最大token数量是512。

最大token长度

  • 作用:最大token长度是指在模型输入中,允许的最大序列长度。超出此长度的序列会被截断,或者进行其他处理(如拆分)。这有助于减少内存开销和提高训练速度,同时保证模型的输入符合要求。
  • 参考值:最常见的最大token长度设置为128、256或512,具体值仍然取决于模型的设计和任务特点。大型模型如G通常允许512个token,而一些具体任务可能只需要128个token即可。

八、噪音设置

噪音偏移

  • 作用:噪音偏移是指在生成过程中添加的基于某种分布的噪音。这可以帮助模型学习更复杂的特征和获取更具多样性的输出。
  • 参考值:通常在0到1之间,一般会根据具体任务进行调整,常见值在0.1到0.5之间。

多分辨率(金字塔)噪音扩散次数

  • 作用:指在不同分辨率下进行多次噪音扩散。这种方法可以帮助模型更好地理解细节和大局,从而提高生成图像的质量。
  • 参考值:常见的值如0到200步,具体取决于任务的复杂性。

多分辨率(金字塔)衰减率

  • 作用:衰减率决定了在多分辨率处理时噪音扩散的强度衰减速率。合适的衰减率可以提高生成的稳定性和图像质量。
  • 参考值:衰减率通常选择在0.1到0.9之间,具体根据模型行为调整。

九、高级参数

随机种子数

  • 作用:随机种子是用于初始化随机数生成器的值。这确保了实验的可重复性。相同的种子会产生相同的随机序列。
  • 参考值:-1(随机)。

clip跳过

  • 作用:Clip 跳过是指在训练过程中跳过某些 Clip 层的计算。这可以减少训练时间,同时可能提高生成效果。
  • 参考值:通常选择在1到3之间,具体根据模型架构和目标任务进行调整。

相关文章:

Stable Diffusion训练LoRA模型参数详细说明(阿里巴巴堆友AI)

工具:线上模型训练堆友AI 一、训练参数 批量大小 (Batch Size) 作用:每次训练中使用的样本数量。参考值:可以从 8 到 64,取决于显存大小。 训练轮数 (Epochs) 作用:完整遍历训练数据的次数。参考值:通…...

Learn ComputeShader 12 Setting up a buffer-based particle effect

unity有自己的粒子系统,但是这次我们要尝试创建一个我们自己的粒子系统,而且使用计算着色器有下面这些好处。总而言之,计算着色器适合处理大规模的数据集。例如,能够高效地处理数万个甚至数百万个粒子的计算。这对于粒子系统这样的…...

【STL中容器汇总】map、list、vector等详解

容器学习分享 1、STL简介1.1、STL六大组件 2、vector容器2.1、vector 基本操作2.2、vector容器示例2.3、vector容器存放自定义数据类型示例2.3、vector嵌套vector示例 3、list 容器3.1使用示例3.2、list容器基本函数 4、map容器4.1、map函数原型4.2、map函数示例 1、STL简介 ST…...

Semantic Kernel + Natasha:一小时快速生成100个API的奇迹

大家好,我今天带来了一个让人瞠目结舌的实验:在一小时内快速生成了100个API! 其实如果手速高,可以更多。要知道,这得益于之前介绍过的Natasha —— 一个可以动态编译并加载代码的神奇工具。 动态编程神器! 探秘.Net…...

rancher upgrade 【rancher 升级】

文章目录 1. 背景2. 下载3. 安装4. 检查5. 测试5.1 创建项目5.2 创建应用5.3 删除集群5.4 注册集群 1. 背景 rancher v2.8.2 升级 v2.9.1 2. 下载 下载charts helm repo add rancher-latest https://releases.rancher.com/server-charts/latest helm repo update helm fetc…...

【Linux】多线程:线程互斥、互斥锁、线程安全

目录 一、多线程访问公共资源时所产生的问题 二、互斥相关背景概念 互斥量mutex(锁)的引入 三、互斥量 1、初始化互斥量(mutex) 2、互斥量加锁 3、互斥量解锁 4、 销毁互斥量 四、互斥量的使用 1、使用静态互斥量 2、…...

进程之间的通信方式

前言 每个进程的用户地址空间都是独立的,一般而言是不能互相访问的,但内核空间是每个进程都共享的,所以进程之间要通信必须通过内核。 Linux提供了以下进程通信方式: 一、管道 所谓的管道,就是内核里面的一串缓存。…...

动手学深度学习(pytorch)学习记录26-卷积神经网路(LeNet)[学习记录]

目录 LeNet模型训练 LeNet 总体来看,LeNet(LeNet-5)由两个部分组成: 卷积编码器:由两个卷积层组成; 全连接层密集块:由三个全连接层组成。 每个卷积块中的基本单元是一个卷积层、一个sigmoid激活函数和平均…...

log4j 和 java.lang.OutOfMemoryError PermGen space

还是OneCoder在项目中沙箱的问题,用classloader隔离做的沙箱,反复运行用户的任务,出现永生区内存溢出: java.lang.OutOfMemoryError: PermGen space 这个问题在tomcat重复热部署的时候其实比较常见。其道理也和我们沙箱的道理基本…...

2024.9.9营养小题【2】

营养: 1、什么数是丑数? 2、数学数学,丑数的数学意义,哎,数学思维我是忘干净了。 3、可以把while循环换成for循环。由此又想到了一点,三个循环结构各有使用场景。 for(;n%factors[i]0;n/factors[i]){}...

uniapp的barcode组件去掉自动放大功能

autoZoom“false” <barcode id1 class"barcode" autoZoom"false" autostart"false" ref"barcode" background"rgb(0,0,0)" frameColor"#1C86EE"scanbarColor"#1C86EE" :filters"fil" ma…...

H5接入Steam 获取用户数据案例

官方文档地址 1.注册 Steam API Key&#xff1a; 你需要一个 Steam Web API Key&#xff0c;可以在 Steam API Key 页面 获取。https://steamcommunity.com/dev/apikey 2.使用 OpenID 登录&#xff1a; 实现 Steam OpenID 登录&#xff0c;以便用户通过 Steam 账户登录你的…...

《A Few Useful Things to Know about Machine Learning》论文导读

版权声明 本文原创作者:谷哥的小弟作者博客地址:http://blog.csdn.net/lfdfhl机器学习作为人工智能领域的重要分支,近年来得到了广泛的关注和应用。Pedro Domingos的经典论文《A Few Useful Things to Know about Machine Learning》为我们提供了对机器学习深入且全面的理解…...

隔壁老樊2024全国巡回演唱会重磅来袭,首站广州正式官宣!

汹涌人潮将城市填满&#xff0c;斑驳心绪漂浮在时间之隙&#xff0c;当生活的喜悲逐渐演化成歌&#xff0c;天空将自己负载的缄默倾泻&#xff0c;那些或酸涩、或热烈的点滴滑落心海&#xff0c;那层悬挂在「我」与世界分野的无形壁垒&#xff0c;渐也被曙光渗透消融。 提炼生…...

【C++】list(下)

个人主页~ list&#xff08;上&#xff09;~ list 四、模拟实现1、list.h&#xff08;1&#xff09;关于整个list的搭建①节点②迭代器③接口 &#xff08;2&#xff09;自定义类型实例化 2、test.cpp&#xff08;1&#xff09;test1&#xff08;2&#xff09;test2 五、额外小…...

千云物流 -低代码平台MySQL备份数据

windows备份 全量备份 创建备份目录 需要在安装数据库的服务器上创建备份目录,所有如果要做备份至少需要两倍的硬盘空间, mkdir D:\mysql_backup\full_backup准备备份脚本 创建一个windows批处理文件&#xff08;例如 full_backup.bat&#xff09;&#xff0c;用来执行全量…...

MySQL:进阶巩固-视图

目录 一、视图的概述二、视图的基本使用2.1 创建视图2.2 查询视图2.3 修改视图2.4 删除视图 一、视图的概述 视图是一种虚拟存在的表&#xff0c;视图中的数据并不在数据库中实际的存在&#xff0c;行列数据来自于视图中查询的表&#xff0c;并且是在使用视图时动态生成的。 通…...

分布式事务Seata原理及其项目使用

0.Seata官方文档 1.Seata概念及原理 Seata是什么 Seata 是一款开源的分布式事务解决方案&#xff0c;致力于提供高性能和简单易用的分布式事务服务。Seata 将为用户提供了 AT、TCC、SAGA 和 XA 事务模式&#xff0c;为用户打造一站式的分布式解决方案。 Seata主要由三个重要组…...

JS_分支结构

if结构 这里的if结构几乎和JAVA中的一样,需要注意的是 if()中的非空字符串会被认为是trueif()中的非零数字会被认为是trueif()中的非空对象会被认为是true <script> if(false){// 非空字符串 if判断为true console.log(true) }else{ console.log(false) } if(){// 长度…...

决策树(Decison Tree)—有监督学习方法、概率模型、生成模型、非线性模型、非参数化模型、批量学习

定义 ID3算法 输入:训练数据集(T= { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x N , y N ) } \left\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\right\} {(x1​,y1​),(x2​,y2​),⋯,(xN​,yN​)}),特征集A阀值 ε \varepsilon ε 输出:决策树T (1)若D中所有实例属于同一…...

java 自定义注解校验实体类属性

直接上代码 1.是否启用参数校验注解 Target({ElementType.TYPE}) Retention(RetentionPolicy.RUNTIME) Documented public interface EnableArgumentsCheck {/*** 是否启用*/boolean enable() default true;} 2.参数校验自定义注解 /*** 参数校验自定义注解* 属性定义&#…...

光伏并网发电系统中电能质量监测与优化技术探讨

0引言 随着清洁能源技术的持续进步与广泛应用&#xff0c;光伏并网发电系统亦逐步崭露头角。作为一种关键的电力供应方式&#xff0c;其受到了广泛的关注。然而&#xff0c;由于天气等外部条件的影响&#xff0c;光伏发电系统面临若干挑战。电能质量问题&#xff0c;诸如电压波…...

网页解析的那些事

Vue 方面 模板语法理解 熟悉 Vue 的模板语法&#xff0c;包括插值表达式&#xff08;如{{ message }}&#xff09;、指令&#xff08;如v-if、v-for、v-bind等&#xff09;。理解这些语法元素如何将数据与 DOM 元素进行绑定和交互。例如&#xff0c;v-for指令用于循环渲染列表数…...

从文字到世界:2024外语阅读大赛报名开启,赛氪网全程护航

中国外文局CATTI项目管理中心与中国外文界联合宣布&#xff0c;将举办2024年外语阅读大赛&#xff0c;旨在激发外语学习兴趣&#xff0c;选拔并培养优秀的语言应用人才&#xff0c;同时向世界展示和传播具有中国特色的优秀文化。此次大赛旨在激发外语学习兴趣&#xff0c;选拔优…...

微信小程序知识点(二)

1.下拉刷新事件 如果页面需要下拉刷新功能&#xff0c;则在页面对应的json配置文件中&#xff0c;将enablePullDownRefresh配置设置为true&#xff0c;如下 {"usingComponents": {},"enablePullDownRefresh": true } 2.上拉触底事件 在很多时候&#x…...

Springcould -第一个Eureka应用 --- day02

标题 Eureka工作原理Spring Cloud框架下的服务发现Eureka包含两个组件&#xff0c;分别是&#xff1a;Eureka Server与Eureka Client。Eureka Server&#xff1a;Eureka Client&#xff1a; 搭建Eureka Server步骤&#xff1a;步骤1&#xff1a;创建项目&#xff0c;引入依赖步…...

RedissonClient 分布式队列工具类

注意&#xff1a;轻量级队列可以使用工具类&#xff0c;重量级数据量 请使用 MQ 本文章基于redis使用redisson客户端实现轻量级队列&#xff0c;以及代码、执行结果演示 一、常见队列了解 普通队列&#xff1a;先进先出&#xff08;FIFO&#xff09;&#xff0c;只能在一端添…...

protobuf使用

我下载的是 protobuf-27.4 以下使用vs2022 根据readme&#xff0c;执行如下命令 "C:\Program Files\CMake\bin\cmake.exe" -G "Visual Studio 17 2022" -DCMAKE_INSTALL_PREFIXC:\Users\x\Downloads\install C:\Users\x\Downloads\protobuf-27.4 -D…...

【微处理器系统原理与应用设计第十二讲】通用定时器设计二之PWM波实现呼吸灯的功能

一、基础知识 1、寄存器的配置 &#xff08;1&#xff09;GPIOX_AFRL&#xff1a;GPIO复用功能低位寄存器 GPIOX_AFRH&#xff1a;GPIO复用功能高位寄存器 &#xff08;2&#xff09;配置PA5 GPIOA->MODER&#xff08;端口模式寄存器&#xff09;&#xff0c;10为复用功…...

2025秋招NLP算法面试真题(十九)-大模型分布式训练题目

目录: 理论篇 1.1 训练大语言模型存在问题? 1.2 什么是点对点通信? 1.3 什么是集体通信? 1.4 什么是数据并行? 1.5 数据并行如何提升效率? 1.6 什么是流水线并行? 1.7 什么是张量并行 (intra-layer)? 1.8 数据并行 vs 张量并行 vs 流水线并行? 1.9 什么是3D并行? 1.1…...