【NLP 31、预训练模型的发展过程】
人的行为,究竟是人所带来的思维方式不同还是与机器一样,刻在脑海里的公式呢?
只是因为不同的人公式不同,所以人的行为才不同,可这又真的是人引以为傲的意识吗?
人脑只是相当于一个大型、驳杂的处理器,所以即使我们再重走一次曾经的路,结果也不会改变
—— 25.2.16
LLM(Large Language model),大语言模型出现在ChatGPT之后出现,在此之前出现的模型我们称之为预训练模型,如:GPT3
大模型的“大”主要体现在参数量级之上,如Bert模型参数量仅有0.1B,而前段时间推出的DeepSeek模型参数量达到了671B,二者参数量的区别达到上千倍
一、ELMo
ELMo发表在Bert之前,提出了预训练思想,其训练方式依旧是由前文预测后文的自回归语言模型
其与现在主流的预训练模型的区别是在于其当时使用LSTM作为其模型主体结构
建议的下游任务使用方式:【将ELMo向量与词向量拼接输入下游模型】
将预训练好的ELMo(LSTM预训练模型),将其权重冻结(保持模型权重不进行更新),然后将权重冻结与正常的词向量拼接起来,送入一个RNN语言模型
二、GPT
GPT模型也出现在Bert模型之前,启用了Transformer作为核心编码器
开始使用特有token连接不同的句子
Start:开始符token
Delim:分隔符token
Extract:结束符token
将句子分割后送入Transformer进行编码,编码后线性层进行分类预测
GPT语言模型采取单向方式:
即:由前n个字预测下一个字
在语言模型预训练的基础上,增加了有监督任务训练:
GPT:通过下游任务准确率的对比,明确指出预训练的是有效的,transformer是好用的
三、Bert
MASK LM MLM任务:给一个长的序列,中间一个词mask掉,模型把mask处理后的序列传入Transformer,最后由线性层将这个mask的词预测出来(周围词预测中间词)
Next Sentence Predict NSP任务:输入两句话,中间用一个分隔符隔开,用【cls】token向量判段两句话是否是上下文关系
Bert:证明了MLM预训练强于单向训练(LTR left to right)任务
现在发现,生成式任务更适合用LTR任务做预训练
四、预训练模型的发展过程
① ELMo:经过预训练步骤,我们可以对预测获得一定程度提升,可把预训练作为一种预测效果提升的手段
② GPT:提升效果很明显,预训练是有效的,Transformer是好用的
③ Bert:预训练是模型不可或缺的组成部分
五、国内公司跟进预训练工作
1.Ernie-baidu
Mask随机token ——> Mask某一特定实体或词组
验证得到:在一系列中文数据集(非生成式任务)上效果强于BERT
可以以完形填空的方式完成知识问答
这种做法在本质上相当于在预训练中加入了先验知识(提前告知哪些词是词组),可以更好的学习该语言
但是这也意味着对未知语言可能会无法使用该策略
2.Ernie- Tsinghua
引入知识图谱,将实体信息融合到预训练任务中
将知识图谱中训练到的一些图谱表示的向量与BERT向量进行一个组合,再通过Transformer,然后做一些特定的预测
Ernie:强调了额外知识的重要性
六、GPT2
继续使用单向语言模型:
继续使用transformer模型结构(小改:归一化层的位置进行调整)
模型改进在于:Bigger model(模型结构不变,模型参数增多)、more data(数据量增多)
文本生成能力可圈可点
提出思想:NLP任务不应该有通过下游任务微调的环节
强调zero-shot(不需要做下游任务的微调)
任何一个任务,都可以看作生成式任务来做,我们将输入和任务一同送入模型,然后让模型直接输出任务结果
例:做一个英法翻译任务,输入一句话再输入一个专门的task token(代表目标是转为法语),然后我们通过生成式任务(目标为模型直接输出法语),直接转换为法语
以如今的视角来看,task token接近于提示词的作用
GPT2:大规模语言模型可以在不做有监督训练的情况下,完成许多任务
七、UNILM
UNIfied pre-trained Language Model,使用不同的Mask
使用Bert的模型结构,同时进行Mask LM,单向LM,和seq2seq训练
使得预训练后模型可以更好的应用在生成式任务上,如:机器翻译和机器摘要等
UNILM:依靠 mask 控制哪些词参与 context embedding 的计算
Mask的部分将允许参与attention计算的元素设为0,将不允许参与attention计算的元素设置为负无穷,其他部分不变,计算自注意力分数
UNILM:解决了原生BERT在生成式任务上的短板,只需要更改Mask方式
八、Transformer - XL & XLNet
Transformer-XL 和 XLNet 都是自然语言处理领域中基于 Transformer 架构的重要模型,希望解决Transformer的长度限制问题(输入文本长度受最大位置编码影响)
1.循环机制 Recurrence Mechanism
Transformer-XL:是一种对Transformer模型的变化,将RNN的思想【tanh(Ux + Wh)】引入Transformer中,解决超长序列的问题
XLNet:是以Transformer-XL为结构的模型
记忆前面字预测的输出结果,加入到当前字的预测结果中去,在Transformer中,将前一段文本的隐向量与后一段文本向量拼接之后计算attention
公式:
2.相对位置编码 Relative Positional Encodings
① 绝对位置编码
BERT模型采用的编码是绝对位置编码,因为其对于一段文本中的所有位置都进行固定
公式:
E:word embedding U:position embedding Wq、Wk:Transformer模型中的参数q和参数k
② 相对位置编码
将两个位置的绝对编码Ui、Uj换成了两个位置的差值Ri-j(不可训练的正弦编码矩阵),避免了输入文本长度受最大位置编码影响的现象
公式:
Ri-j:不可训练的正弦编码矩阵(non-trainable sinusoid encoding matrix),序列中的每个位置都有唯一的编码向量。高频分量(对应较小维度)可捕捉局部细节,低频分量(对应较大维度)能捕捉全局信息。对于任意两个位置m和n,该编码能表示它们之间的相对位置关系。
公式:
u, v :可训练的参数trainable
3.训练XLNet的预训练目标
① 自回归语言模型预训练
AR语言模型:auto regressive language model 【GPT】
特点:单向预测下一个字
缺点:缺少双向信息
② 自编码语言模型预训练
AE语言模型:auto encoding language model 【BERT】
特点:双向信息输入,预测中间某个mask的字
缺点:引入了[mask],但在实际任务中不存在,预训练与使用过程不一致,效果可能有缺
③ XLNet语言模型预训练
AR语言模型与AE语言模型融合 Permutation Language Model
首先打乱输入的句子顺序,之后进行单向预测
特点:不需要添加Mask token,并且含有双向句子信息
Transformer - XL & XLNet:修改预训练目标,同时修改模型结构,带来一定的效果提升
九、Roberta
Robustly optimized BERT approach
模型结构不变,训练方式调整:
① 更多的数据,更大的batch size,更久的训练
② 去掉next sentence prediction 前后句上下文关系的预测
③ 使用更长的样本
④ 动态改变mask位置:在多轮训练中,改变mask所在的位置,可以更好的利用语料
Roberta:挖掘旧的方法的潜力,有时比创新还要有效(模型结构不变,训练方式调整)
能够最大限度的发挥一种算法的能力,是算法工程师能力的体现
十、SpanBert
模型结构不变,对Bert训练目标改动:
① 去掉了NSP(next sentence prediction)任务
② 随机mask几个连续的token
③ 新的预训练任务SBO(Span Boundary Objective):连续mask一个片段,三个参数(片段的首尾和词在mask片段中的位置编码)
1.SBO任务
Xs-1:代表mask片段之前的第一个token的Embedding
Xe+1:代表mask片段之后的第一个token的Embedding
Pi-s+1:代表目标token的Position Embedding
SBO预测层:将三个向量拼接起来,过线性层、激活层、归一化层,最终得到预测值
2.Mask片段长度采样分布
Mask指定实体或名词短语,效果不如mask随机片段
NSP作用不大,不如不加,不如SBO
SpanBert:大模型+更多的数据不是唯一出路,改变训练目标也有很大影响
十一、ALBERT
试图解决Bert模型过大的问题
想办法减少参数量
1. Factorized embedding parameterization
Embedding层的参数因式分解
Bert模型参数量大小:词表大小 × 隐单元个数
ALBERT:将词嵌入矩阵的维度 V × H 分解为两个矩阵 V × E 和 E × H,其中 V 是词汇表大小,H 是隐藏层维度,E 是一个较小的中间维度。这样可以在不损失模型表达能力的情况下,显著减少词嵌入参数的数量。
2. Cross-layer parameter sharing
跨层参数共享,有多种共享方式:
① 只共享attention部分
参数:q、k、v、o
② 只共享feed-forward部分
两个线性层 + 一个激活层
③ 全部共享
参数量降为:1/12
3.更换预训练目标
论文认为NSP任务过于简单,用SOP(Sentence order prediction)任务替代NSP任务
SOP任务:输入两句话,预测两句话的前后顺序关系,同样是二分类任务
例:
[CLS] 你好啊bert [SEP] 好久不见 [SEP] ——> Positive
[CLS] 好久不见 [SEP]你好啊bert [SEP] ——> Negative
数据采样方式:给出前后连续两句话,有50%的概率交换两句话的位置,让模型判断位置顺序是否颠倒
4.局限性
① 虽然目的在于缩减参数,但缩减参数并没有带来正向的效果,模型效果依然是参数越大越好
② 虽然缩减了参数,但是前向计算速度没有提升(总参数量下降,训练速度有提升,预测速度没有很大提升)
ALBERT:工程角度讲价值不大,但是证明了参数量并非模型能力的绝对衡量标准
十二、DistillBert 模型蒸馏技术
DistillBert:蒸馏版Bert
传统的模型蒸馏技术:小的模型正常进行预训练过程(hard prediction),计算完成后与真实标签用交叉熵损失函数计算loss(student loss),超大模型会输出下一个字在词表大小上的概率分布,然后以 小模型当前输出的概率分布(soft prediction)与超大模型输出的概率分布(soft labels)之间,两者较为接近 作为一个新的训练目标,以KL散度作为损失函数计算loss(distillation loss),然后把student loss 和 distillation loss相加一起训练,一定程度上包含了Teacher model的信息
小模型从大模型输出的概率分布进行学习:对一个问题,由大模型本身进行回答构造任务的X 和 Y,然后让小模型对大模型构造的数据进行学习,然后用小模型输出 与 通过大模型得到的Y值,计算loss,再计算 小模型输出与大模型输出的概率分布之间的loss,同时计算这两者,这在如今也被称为模型蒸馏技术,也属于数据增强范畴
我们希望这个蒸馏后的小的模型能够较为接近这个超大模型的效果
Teacher model:效果较好的超大模型【老师模型】
Student(distilled) model:蒸馏后的较小模型【学生模型】
优点:包含的信息量更大,包含的概率分布更加平滑(下一个字的概率分布不应该是一个非0即1的形式)
损失函数 —— KL散度
KL散度是一种衡量两个概率分布(也可简单理解为向量)之间差异的算法。经常作为神经网络的loss函数使用。
与交叉熵计算过程实际非常接近,但交叉熵通常要求target是one-hot形式。
计算步骤:
① 计算比值:P(x) / Q(x)。
② 取对数:对每个比值取自然对数。
③ 加权求和:用真实分布 P(x) 作为权重,对所有事件求和。
④ 当P与Q的概率分布完全一致时,损失值loss最低
示例:Teacher model:P = [0.2, 0.4, 0.4] Student(distilled) model:Q = [0.4, 0.2, 0.4]
公式:
老师模型的概率分布 × log(老师模型的概率分布 / 学生模型的概率分布)
KL(P, Q) = 0.2 * log(0.2 / 0.4) + 0.4 * log(0.4 / 0.2) + 0.4 * log(0.4 / 0.4) = 0.1386294361
KL散度与交叉熵的关系
交叉熵H(P,Q)与KL散度的关系为:
十三、T5
Text-to-Text Transfer Transformer:Encoder - Decoder架构
生成式任务上,only - decoder结构效果相对更强一些
Seq2seq方法,理论上可以解决一切NLP问题【一切NLP问题都可以转化为生成式问题】
分类问题:文本 -> 标签
命名实体识别:文本 -> 实体
摘要、翻译:文本 -> 文本
回归问题:文本 -> 0.1(字符串)
预训练任务设计 text corruption
预训练任务目标与Bert类似,Bert模型运用mask方式进行训练,T5模型训练原理与Mask类似,把中间的一部分内容Mask掉,用token替代被mask的文本,输出时再用token预测回被mask的文本作为训练目标
从如今的视角来看,生成式任务更适合应用从左往右由前文预测后文的自回归结构
T5:我们有希望将NLP中的所有任务都当作一个生成式任务来做,迈向NLP的大一统
十四、GPT3
提高模型参数量:1750 亿参数量,是GPT-2的116倍
模型结构与GPT-2相同
继续使用单向自回归语言模型预训练
研究表示:不需要 Pre-training+ fine-tune【预训练 + 下游任务微调】的学习方式,而应该注重 Pre-training + Zero-, One-, Few-shot【预训练 + 零样本 / 单样本 / 小样本】的学习方式
理由:
① fine-tune需要的数据,经常是缺失的
② fine-tune会涉及对模型进行改造,使其变复杂,并失去泛化性
③ 人类学习做新任务并不需要很多样本
1. Zero-shot(零样本学习)
- 定义:模型无需目标类别的训练样本,直接通过语义描述或属性推理完成任务。
- 实现原理:
- 依赖预训练阶段学到的跨模态关联(如CLIP通过文本描述匹配图像)。
- 利用任务描述的Prompt直接引导模型生成答案(如“Let's think step by step”)。
- 典型应用:图像分类(未见类别)、文本生成(新领域指令)。
2. One-shot(单样本学习)
- 定义:仅需一个目标类别的示例即可适应新任务。
- 实现原理:
- 元学习:在预训练基础上,通过少量参数调整(如Adapter模块)快速适应新样本。
- 示例引导:在Prompt中提供1个示例,模型模仿其模式生成结果(如模仿写作风格)。
- 典型应用:员工刷脸打卡(新员工仅需一张照片)、罕见病诊断。
3. Few-shot(小样本学习)
- 定义:利用少量样本(通常2-5个)提升 模型在特定任务上的性能。
- 实现原理:
- 指令微调:通过多样化任务数据(如问答对、推理步骤)调整模型参数,增强泛化能力。
- 动态示例选择:使用BM25等算法从池中选择与当前输入最相关的示例。
- 典型应用:多分类任务(如5-way-5-shot)、复杂推理(需多步CoT提示)
GPT3:人工智能的目标:像人一样的学习能力
十五、从“续写”到“回答”
Bert:输入文字——>经过Bert(用前文预测后文)——>添加线性层—— >然后作一个微调进行分类
使用bert类模型(通用模型)微调,需要一个随机初始化的线性层(成为一个专用的模型),这为使用带来了不便
LLM:模型永远生成文本,用文本描述各种各种任务的答案,解释给出答案
训练方式统一,推理方式统一(永远是一个固定的模型,以文字方式回答任何问题)
十六、InstructGPT
1.InstructGPT 的核心技术:人类反馈强化学习(RLHF)
InstructGPT 的核心创新在于将 人类反馈强化学习(Reinforcement Learning from Human Feedback, RLHF)引入语言模型训练,解决了传统模型生成内容:偏离用户意图、存在偏见或有害信息的问题。
2.训练流程 ① Pretraining训练
前文预测后文,自回归语言模型
需要大量的训练数据
知识主要在Pretrain阶段注入
3.训练流程 ② 监督微调(Supervised Fine-Tuning, SFT)训练
使用人工标注的高质量指令-响应数据对 GPT-3 进行微调,使模型初步具备遵循指令的能力。数据包括用户提示(如“解释登月”)和人工编写的理想回答。
与Pretraining类似,输入变成一问一答的形式,输入的问题与答案之间用一个分隔符<sep>隔开,由分隔符<sep>开始,预测答案的第一个字,由预测出的答案的第一个字再去预测答案的第二个字,循环这个过程,直到预测到终止符<eos>为止,将这段预测的文本作为这个问题的答案
只计算圈内部分的loss值,当给出一定数量的问答对数据进行训练,这个模型就变成了由“续写”到“回答”的模型
SFT的mask:问题全部可见,对于答案输出后面的字只能看到前面的字,给一定量的数据让模型理解我们希望生成类似的回复
mask形状:
4.训练流程 ③ 奖励模型训练(Reward Modeling, RM)
模型生成多个候选响应,人工标注员对结果排序(如质量从高到低),训练一个奖励模型以量化响应质量。这一步将人类偏好转化为可计算的奖励信号。
5.训练流程 ④ 强化学习微调(Reinforcement Learning, RL)
基于奖励模型的反馈,通过近端策略优化(PPO)算法调整语言模型参数,使生成内容更贴近人类偏好。这一阶段让模型实现“智能对齐”,显著提升输出的安全性和有用性。
6.与 GPT-3 的关键差异
维度 | GPT-3 | InstructGPT |
---|---|---|
设计目标 | 预测互联网文本的统计模式 | 理解并执行用户指令,生成对齐内容 |
训练方法 | 无监督预训练 + 零样本/小样本学习 | RLHF 三阶段训练,结合人类反馈 |
输出质量 | 可能偏离指令、包含偏见或错误 | 更精准、安全、符合人类价值观 |
参数量效率 | 依赖大规模参数(175B) | 仅 1.3B 参数即可超越 GPT-3 表现 |
7.应用场景与优势
① 精准指令执行
自动客服:生成符合用户需求的答案,减少歧义。
代码生成:根据指令编写代码片段或优化现有代码。
文档生成:按指令输出结构化报告、合同等。
② 安全性与无害性
通过人类反馈过滤有害内容,减少种族歧视、性别偏见等风险。
③ 任务泛化能力
在复杂指令(如多步骤推理)中表现优于传统模型,例如数学运算、逻辑分析。
8.技术突破与影响
① 对齐性优化
InstructGPT 首次系统性解决了语言模型与人类意图的“对齐鸿沟”,为后续 ChatGPT 的对话形态奠定了基础。
② 小模型高效性
1.3B 参数的 InstructGPT 在人类评估中击败 175B 的 GPT-3,证明对齐技术可降低模型规模依赖。
③ 行业范式革新
RLHF 成为大模型训练的核心范式,尽管后续研究尝试替代方法(如 DPO),但其效果仍未被超越。
9.未来挑战
标注成本高:依赖人工标注反馈,规模化应用受限。
泛化边界:对超出训练分布的指令可能失效。
多模态扩展:如何将 RLHF 应用于图像、视频等多模态生成仍需探索。
相关文章:

【NLP 31、预训练模型的发展过程】
人的行为,究竟是人所带来的思维方式不同还是与机器一样,刻在脑海里的公式呢? 只是因为不同的人公式不同,所以人的行为才不同,可这又真的是人引以为傲的意识吗? 人脑只是相当于一个大型、驳杂的处理器&#…...
sqlclchery面对复杂的sql语句怎么办
面对复杂的SQL语句时,可以采取以下步骤来简化和解决问题: 理解需求 明确查询的目标,确保清楚需要获取哪些数据。 分解查询 将复杂查询拆分为多个简单部分,逐步构建最终结果。 使用注释 添加注释,解释每个部分的逻辑&…...
C++/JavaScript ⭐算法OJ⭐下一个排列
题目描述 31. Next Permutation A permutation of an array of integers is an arrangement of its members into a sequence or linear order. For example, for arr [1,2,3], the following are all the permutations of arr: [1, 2, 3], [1, 3, 2], [2, 1, 3], [2, 3, 1]…...

《Mycat核心技术》第17章:实现MySQL的读写分离
作者:冰河 星球:http://m6z.cn/6aeFbs 博客:https://binghe.gitcode.host 文章汇总:https://binghe.gitcode.host/md/all/all.html 星球项目地址:https://binghe.gitcode.host/md/zsxq/introduce.html 沉淀,…...

Windows 11 使用容器(Docker Podman)
文章目录 背景1、相关网站1.1、WSL1.2、Docker1.3、Podman 2、环境3、安装部署3.1、安装 WSL3.2、Docker3.2.1、Docker Desktop3.2.1.1、安装3.2.1.2、拉取镜像3.2.1.3、启动容器 3.3、Podman3.3.1、安装3.3.2、使用3.3.3、异常处理 总结 背景 Windows 系统中使用容器…...

代码审计入门学习之sql注入
路由规则 入口文件:index.php <?php // ---------------------------------------------------------------------- // | wuzhicms [ 五指互联网站内容管理系统 ] // | Copyright (c) 2014-2015 http://www.wuzhicms.com All rights reserved. // | Licensed …...

2024信息技术、信息安全、网络安全、数据安全等国家标准合集共125份。
2024信息技术、信息安全、网络安全、数据安全等国家标准合集,共125份。 一、2024信息技术标准(54份) GB_T 17966-2024 信息技术 微处理器系统 浮点运算.pdf GB_T 17969.8-2024 信息技术 对象标识符登记机构操作规程 第8部分:通用…...

element ui的select选择框
我们首先先试一下,这个东西怎么玩的 <el-select v-model"select" change"changeSelect"><el-option value"香蕉"></el-option><el-option value"菠萝"></el-option><el-option value&quo…...

文档检索服务平台
文档检索服务平台是基于Elasticsearch的全文检索,包含数据采集、数据清洗、数据转换、数据检索等模块。 项目地址:Github、国内Gitee 演示地址:http://silianpan.cn/gdss/ 以下是演示角色和账号(密码同账号)…...

使用FastAPI进行可视化部署
文章目录 一、FastAPI介绍二、环境配置三、示例代码1.app.py代码如下2.websocket_handler.py 代码如下3.运行app4.遇到的问题与解决 一、FastAPI介绍 FastAPI是一个高性能的Python Web框架,它基于Starlette并利用了 Python类型提示的优势。它可以帮助我们快速构建具…...
设计模式 之 工厂模式(简单工厂模式、工厂方法模式、抽象工厂模式)(C++)
文章目录 C 工厂模式引言一、简单工厂模式概念实现步骤示例代码优缺点 二、工厂方法模式概念实现步骤示例代码优缺点 三、抽象工厂模式概念实现步骤示例代码优缺点 C 工厂模式 引言 在 C 编程中,对象的创建是一个常见且基础的操作。然而,当项目规模逐渐…...

3、Kubernetes 集群部署 Prometheus 和 Grafana
Kubernetes 集群部署 Prometheus 和 Grafana node-exporter 安装Prometheus 安装和配置Prometheus 配置热加载Grafana 安装部署Grafana 配置 实验环境 控制节点/master01 192.168.110.10 工作节点/node01 192.168.110.20 工作节点/node02 192.168.110.30 node-exporter 安装 #…...

【C语言】第八期——指针
目录 1 初始指针 2 获取变量的地址 3 定义指针变量、取地址、取值 3.1 定义指针变量 3.2 取地址、取值 4 对指针变量进行读写操作 5 指针变量作为函数参数 6 数组与指针 6.1 指针元素指向数组 6.2 指针加减运算(了解) 6.2.1 指针加减具体数字…...

如何在 Mac 上安装并配置 JDK 环境变量
如何在Mac上安装并配置JDK环境变量 在开发过程中,许多应用和框架都需要使用Java,尤其是使用Java开发的应用程序。如果你是Mac用户,以下是安装并配置JDK环境变量的步骤,确保你能顺利运行Java程序。 步骤 1:下载JDK 访…...

【git-hub项目:YOLOs-CPP】本地实现05:项目移植
ok,经过前3个博客,我们实现了项目的跑通。 但是,通常情况下,我们的项目都是需要在其他电脑上也跑通,才对。 然而,经过测试,目前出现了2 个bug。 项目一键下载【⬇️⬇️⬇️】: 精…...
LeetCode 热题 100 206. 反转链表
LeetCode 热题 100 | 206. 反转链表 大家好,今天我们来解决一道经典的算法题——反转链表。这道题在 LeetCode 上被标记为简单难度,要求我们将一个单链表反转,并返回反转后的链表。下面我将详细讲解解题思路,并附上 Python 代码实…...

2025年02月21日Github流行趋势
项目名称:source-sdk-2013 项目地址url:https://github.com/ValveSoftware/source-sdk-2013项目语言:C历史star数:7343今日star数:929项目维护者:JoeLudwig, jorgenpt, narendraumate, sortie, alanedwarde…...

WebXR教学 03 项目1 旋转彩色方块
一、项目结构 webgl-cube/ ├── index.html ├── main.js ├── package.json └── vite.config.js二、详细实现步骤 初始化项目 npm init -y npm install three vite --save-devindex.html <!DOCTYPE html> <html lang"en"> <head><…...

深入解析JVM垃圾回收机制
1 引言 本节常见面试题 如何判断对象是否死亡(两种方法)。简单的介绍一下强引用、软引用、弱引用、虚引用(虚引用与软引用和弱引用的区别、使用软引用能带来的好处)。如何判断一个常量是废弃常量如何判断一个类是无用的类垃圾收…...

【简单】209.长度最小的子数组
题目描述 给定一个含有 n 个正整数的数组和一个正整数 target 。 找出该数组中满足其总和大于等于 target 的长度最小的 子数组 [numsl, numsl1, …, numsr-1, numsr] ,并返回其长度。如果不存在符合条件的子数组,返回0。 示例 1: 输入&am…...

VB.net复制Ntag213卡写入UID
本示例使用的发卡器:https://item.taobao.com/item.htm?ftt&id615391857885 一、读取旧Ntag卡的UID和数据 Private Sub Button15_Click(sender As Object, e As EventArgs) Handles Button15.Click轻松读卡技术支持:网站:Dim i, j As IntegerDim cardidhex, …...

Day131 | 灵神 | 回溯算法 | 子集型 子集
Day131 | 灵神 | 回溯算法 | 子集型 子集 78.子集 78. 子集 - 力扣(LeetCode) 思路: 笔者写过很多次这道题了,不想写题解了,大家看灵神讲解吧 回溯算法套路①子集型回溯【基础算法精讲 14】_哔哩哔哩_bilibili 完…...
连锁超市冷库节能解决方案:如何实现超市降本增效
在连锁超市冷库运营中,高能耗、设备损耗快、人工管理低效等问题长期困扰企业。御控冷库节能解决方案通过智能控制化霜、按需化霜、实时监控、故障诊断、自动预警、远程控制开关六大核心技术,实现年省电费15%-60%,且不改动原有装备、安装快捷、…...
系统设计 --- MongoDB亿级数据查询优化策略
系统设计 --- MongoDB亿级数据查询分表策略 背景Solution --- 分表 背景 使用audit log实现Audi Trail功能 Audit Trail范围: 六个月数据量: 每秒5-7条audi log,共计7千万 – 1亿条数据需要实现全文检索按照时间倒序因为license问题,不能使用ELK只能使用…...
OkHttp 中实现断点续传 demo
在 OkHttp 中实现断点续传主要通过以下步骤完成,核心是利用 HTTP 协议的 Range 请求头指定下载范围: 实现原理 Range 请求头:向服务器请求文件的特定字节范围(如 Range: bytes1024-) 本地文件记录:保存已…...
【Go】3、Go语言进阶与依赖管理
前言 本系列文章参考自稀土掘金上的 【字节内部课】公开课,做自我学习总结整理。 Go语言并发编程 Go语言原生支持并发编程,它的核心机制是 Goroutine 协程、Channel 通道,并基于CSP(Communicating Sequential Processes࿰…...

ETLCloud可能遇到的问题有哪些?常见坑位解析
数据集成平台ETLCloud,主要用于支持数据的抽取(Extract)、转换(Transform)和加载(Load)过程。提供了一个简洁直观的界面,以便用户可以在不同的数据源之间轻松地进行数据迁移和转换。…...
爬虫基础学习day2
# 爬虫设计领域 工商:企查查、天眼查短视频:抖音、快手、西瓜 ---> 飞瓜电商:京东、淘宝、聚美优品、亚马逊 ---> 分析店铺经营决策标题、排名航空:抓取所有航空公司价格 ---> 去哪儿自媒体:采集自媒体数据进…...

Spring数据访问模块设计
前面我们已经完成了IoC和web模块的设计,聪明的码友立马就知道了,该到数据访问模块了,要不就这俩玩个6啊,查库势在必行,至此,它来了。 一、核心设计理念 1、痛点在哪 应用离不开数据(数据库、No…...

学校时钟系统,标准考场时钟系统,AI亮相2025高考,赛思时钟系统为教育公平筑起“精准防线”
2025年#高考 将在近日拉开帷幕,#AI 监考一度冲上热搜。当AI深度融入高考,#时间同步 不再是辅助功能,而是决定AI监考系统成败的“生命线”。 AI亮相2025高考,40种异常行为0.5秒精准识别 2025年高考即将拉开帷幕,江西、…...