当前位置: 首页 > news >正文

【Soft-prompt Tuning for Large Language Models to Evaluate Bias 论文略读】

Soft-prompt Tuning for Large Language Models to Evaluate Bias 论文略读

  • INFORMATION
  • Abstract
  • 1 Introduction
  • 2 Related work
  • 3 Methodology
    • 3.1 Experimental setup
  • 4 Results
  • 5 Discussion & Conclusion
  • 总结
  • A Fairness metrics
  • B Hyperparmeter Details
  • C Datasets
  • D Prompt Tuning

INFORMATION

标题: 基于提示的多任务学习中的社会偏见测量
时间: 2022/5/23 预印版
作者: Jacob-Junqi Tian1,2 David Emerson1 Sevil Zanjani Miyandoab3
单位: 1Vector Institute for AI 2 McGill University 3 Amirkabir University 4 York University
链接: https://arxiv.org/pdf/2306.04735.pdf

Abstract

推动大型语言模型在最近几年获得了巨大的流行,因为它可以产生良好的结果,甚至不需要标记数据[12]。然而,这需要及时调优,以获得最佳提示,从而获得更好的模型性能。在本文中,我们探讨在情感分类任务中使用软提示调优来量化大型语言模型(LLMs)的偏见,如Open pre - training transformer (OPT)[29]和Galactica语言模型[27]。由于这些模型是根据真实世界的数据进行训练的,这些数据可能倾向于某些人群,因此识别这些潜在的问题是很重要的。使用软提示来评估偏见给了我们额外的优势,避免了人工设计的提示可能引起的人为偏见注入。 我们使用群体公平(bias)来检查模型对不同敏感属性的偏差,并发现了有趣的偏差模式。由于llm已经在行业的各种应用程序中被使用,因此在实践中部署这些模型之前识别偏见是至关重要的。我们开放我们的管道1,并鼓励行业研究人员使我们的工作适应他们的用例。

1 Introduction

尽管非常流行,但微调语言模型[13,6,28]的缺点是需要大量的标记数据,以及对每个下游任务进行单独的训练和存储[13,6,28]。语言模型提示减轻了对大量带标签数据的收集的需求,但是为给定的下游应用程序设计提示以诱导最佳性能的任务是具有挑战性的[15,20]。自动快速工程方法已经取得了重大进展。用于自动提示优化的一种方法是软提示调优[8],这是一种参数高效的调优方法,它训练一小组提示令牌嵌入,这些令牌嵌入将与语言模型的标准自然语言输入一起提供。 软提示调优已被用于多个llm在各种下游任务(如问题回答、文本摘要和文本分类)上获得高性能[22,7]。另一方面,偏见最近得到了研究界的大量关注[18,23]。随着NLP模型应用程序继续迅速扩展,开发全面的分析框架来衡量这些模型的学习或继承的社会偏见是势在必行的。

在本文中,我们评估了软提示调优[8]对大型语言模型(包括Open pre - training transformer (OPT)[29]和Galactica语言模型[27])偏见评估的有效性。更具体地说,本文提出的方法是利用条件模型的提示来完成情绪分析任务,在此基础上随后测量公平性(偏见)指标。除了方法在调整参数数量方面的效率外,软提示调整的另一个潜在优势是,它消除了任何通过手动提示设计的人为偏见。 我们的研究表明,提示调优能够对LLM对代表性不足群体的偏见进行细粒度分析和全面理解。以下是我们的贡献:

  • 我们应用软提示微调来适应OPT和Galactica LLMs的情感分类使用两个不同的数据集。
  • 基于提示的情感分类被用来评估llm在敏感社会属性上的偏见。
  • 我们探讨了模型大小、模型类型和任务特定标签提示数据集对模型公平性的影响。
  • 据我们所知,软提示调优尚未用于公平性评估[11,17]。

1Github链接保留双盲提交(一边说开放代码一边又说要保留github链接,这不是自相矛盾吗????)

2 Related work

llm的软提示调优和参数高效调优的研究得到了迅速的发展[8,9,14]。虽然这些方法在它们的竞争方面得到了充分的研究,而且通常比全模型微调的性能更好,但现有的工作没有考虑这些方法在偏差评估中的影响或效用。许多研究者关注于识别、量化和减轻NLP中的偏差[4,3]。BBQ评估任务[19]的Bias Benchmark,旨在创建一个框架,用于评估任何规模的语言模型中的社会偏见,沿着一大块敏感属性。然而,该任务仅限于多项选择题和答案设置。(BBQ存在的问题,固定于偏见测量的数据方式为多选题的形式,而作为其他的形式不可以,而且如果语言模型本身没有这种问题理解的能力的话也无法测量其偏见程度) Big-Bench[26]介绍了评估llm的不同框架,但只涵盖了有限数量的偏差评估方法、指标和方面。我们的工作解决了文献中的这一空白,并为llm中偏见的可重现性评估提供了一个重要工具。

3 Methodology

提示调优: 提示是用精心设计的短语或模板来增强输入文本的过程,以帮助经过训练的语言模型完成下游任务。当与格式良好的提示相结合时,大型语言模型可以精确地执行许多任务,而不需要对带标签的数据[2]进行微调。但是,提示符的确切组成通常会对LLMs性能[15]产生实质性的影响。最近,大量的研究已经产生了有效的自动快速优化方法。这种优化的搜索空间可以聚焦于自然语言提示符[24]或令牌嵌入的连续空间[8],分别称为离散提示符优化和连续提示符优化。

偏见评估: NLP的偏见通常用敏感属性[3]来量化,如性别、年龄、种族、国籍等。每个敏感属性由不同的保护组组成。例如,敏感属性age由保护组{adult, young, old}组成。从偏见的角度来看,持续的提示优化[10]提供了一个很好的评估工具,但在以往的文献中还没有对其进行研究。本文采用了[8]中的提示调优方法。

3.1 Experimental setup

在本文中,我们使用软提示调优来评估群体公平性[3]。群体公平性评估模型的表现是否在不同群体之间显著和一致地变化,以及偏见是否对特定群体有害。对于给定的度量值M,组公平性被定义为:dM(x) = M(x)−M,其中dM(x)是特定组x的M Gap,测量M(x)表示(例如,M可以是准确性,FPR,…)组x与特定敏感属性M内观察到的M整体组的中值之间的差距。精度Gap测量x的不同组的准确率,以及每组相对于质心的精度更高或更低的程度。一组的精度差距越高,该组的模型性能越好。对于组公平性FPR Gap,度量M为FPR。在这里,为了进行积极情绪分析,我们定义了积极FPR Gap。然而,在测试集中,FP被定义在原本消极或中性但被归类为积极情绪的群体上。 然后,我们在这些组中观察到的阳性FPR间隙越高,这意味着分类器以更高的比率支持这些组,并将它们报告为阳性标签。另一方面,对于消极情绪分析,我们定义了消极FPR Gap。在这种情况下,由于关注的是负面情绪,因此FP被定义为原本积极或中性,但被归类为负面情绪的群体。 因此,分类器对具有较高的负FPR Gap的组行为。也就是说,这些群体是积极或中立的,但他们被检测为消极情绪的比率更高。这里考虑的敏感属性和它们各自的受保护群体是:年龄:{成年人,老年人,年轻人},性:{无性恋,双性恋,异性恋,同性恋,其他}。

在这里插入图片描述
表1:用于生成评估数据集的模板示例,在这些数据集上评估每个OPT模型。“{identity_adj}”表示的空格中包含与显示的敏感属性“[3]”下不同保护组关联的形容词。

Template Examples 表1提供了来自[3]的模板示例。每个模板都有一个预期的情绪,{identity_adj}空间用与相关敏感属性的保护组关联的描述符填充。与每个数据点相关的情绪对人类评估者来说是很容易理解的。因此,受保护组之间的模型性能即使有很小的差异也可能引起关注。

Model Sizes: 我们评估了Open pre - training Transformer (OPT)系列模型[29]和Galactica[27]在两个情感分类任务上的偏见。我们考虑了参数尺寸为350M、1.3B、2.7B、6.7B和13B的OPT模型,以及1.3B和6.7B的Galactica模型。

为了量化偏见,我们使用了综合模板和由Czarnowska等人设计的结果数据集。附录3.1中的表1提供了一个关于性别和年龄等敏感属性的模板示例。使用这样的合成数据集进行偏差评估是常见的做法。基于超参数搜索结果,我们在每个软提示调优实验中都包含8个连续提示令牌。每个提示符号都是一个密集向量,其维数与相应语言模型的嵌入空间相同,其范围为1024 ~ 5120。底层语言模型的权重保持不变。总的来说,我们在实验中学习到的参数在全LM模型权重的0.003%范围内。

Datasets: 我们根据两个情感数据集调优提示。SemEval-2018 Task 1 - Valence Ordinal Classification [21] (SemEval)和Stanford Sentiment Treebank Five-way (SST-5)[25]集合,映射到一个3-way的情绪分类任务,如附录C所述。

Soft-prompt Tuning Details: 软提示方法添加了一系列标记,T = {t1, t2,…给定一个目标令牌或一组令牌Y,目标是最大化以令牌T和输入文本X为条件的Y的生成概率的对数似然,表示为P (Y|T;X)。对于这里的情绪分析任务,标记是积极的、消极的和中性的。一个标准的Adam优化器用于训练[16]。我们利用JAX ML框架[1]在TPUv3-8设备上和拥有4个A40 48GB gpu的机器上实现高效的模型并行性。

附录d中的图2显示了提示调优过程的说明。因为底层语言模型的权重在整个训练过程中都是冻结的,所以生成特定于任务的表示并不会显式地修改从语言模型训练前数据中继承来的偏见。我们假设,与全模型微调相比,这种方法将确保更准确地评估语言模型固有的偏见。另一方面,优化后的提示有助于确保模型执行下游任务以及一个完全优化的模型,这自然地反映了实际部署的设置。

程中都是冻结的,所以生成特定于任务的
图2:用于对OPT和Galactica进行有效参数微调的提示调优方法示意图。用橙色阴影表示的提示标记被初始化为序列标记嵌入的开始。这些嵌入随后通过添加学习提示嵌入而受到干扰。在反向传播过程中,除提示嵌入层外,所有权值都被冻结。

如图2所示,序列开始标记用于为连续提示符提供固定的初始嵌入。然后,每次嵌入都会受到可训练的提示嵌入层的干扰,然后再像往常一样流经语言模型,以及其余未修改的输入文本标记。图中还描述了情绪任务的提示输入示例。注意,没有执行额外的提示增强,任务指令纯粹以提示符号的形式出现。在所有的实验中,使用的提示符号数和每个输入中的最大符号数都被视为控制变量,并保持一致。

对于特定于任务的模型调优,标准训练和验证拆分用于标记特定于任务的数据集。超参数,如学习速率,为验证的准确性进行了优化。超参数扫描的具体描述以及最终选择的参数见附录b。考虑到提示调优的固有不稳定性,在参数优化之后,我们调优了15个不同的提示, 每个提示都使用不同的随机种子。对于每个模型大小和任务特定的数据集,我们选择了验证准确性方面的前5个提示,以便为测试集准确性和相关的公平性(偏差)度量建立均值和置信区间估计。在提示调优期间应用提前停止。早期停止的标准是,在开始的2500步之后,给定的评估损失超过前5个观察到的评估损失的最大值。所有提示都要接受训练,直到达到早期停止的标准。

4 Results

在本节中,我们通过展示SemEval和SST-5数据集以及OPT和Galactica的各种模型大小之间的不同保护组的FPR差距,来展示不同敏感属性的结果。

在这里插入图片描述
图1:性敏感属性的正向类的FPR差距。标记表明平均差距和条形是95%的置信区间。正差距表明模型误差偏向于某一特定群体。在SemEval和SST-5数据集上,无性样本从模型错误中获益的比率始终低于其他样本。

Sexuality: 在图1中,积极情绪的FPR差距显示在性方面。在每一组内,测量的平均差距及其相应的置信区间显示为每个模型。正FPR Gap衡量的是模型错误地将与受保护组相关的负面或中性陈述从有利的角度进行分类的比率。因此,模型之间一致且显著的负差异代表了特定性别的情况,这意味着这些群体从模型错误中获益的比例显著低于其他群体。另一方面,巨大的正差距表明,一个群体从模型错误中获益的比例高得不成比例。

图1显示,在SemEval和SST-5数据集上训练的模型中,属于无性群体的样本从模型错误中获益的比率始终较低。有些令人惊讶的是,在这个衡量标准中,有一些证据表明,异性恋的例子是不利的群体,不能从模型错误中获益。然而,当考虑到负类FPR差距时,模式是相当弱的和相反的。有趣的是,来自被称为其他组的例子似乎从两个数据集的模型错误中明显受益。图3所示的结果显示FPR隙为负。这些代表模型错误,它们预测每个保护组的中性或正数据点实际上是负面的例子。因此,与整体相比,这些地块的正差距表明了对这些群体的不利偏见。很明显,如图1所示,无性群体的有害错误率明显升高。此外,同性恋组在考虑的数据集和几乎所有模型中都经历了更高的负类FPR。如上所述,异性恋组在这一FPR上经历了有利的下降,这与观察到的积极级FPR的结果不同。

在每个模型尺寸测量的FPR间隙旁边报告的是与该间隙相关的置信区间。对于每一组,表2显示了在95%的置信度下,差距在0以下和0以上的净次数。也就是说,对于每一个小于0的重要间隔,我们减去1,而对于大于0的重要间隔,我们加1。红色的值表示被认为是有害的重要间隙的方向,而绿色的值表示模型可能对其有利的处理。对于无性恋和同性恋保护群体,实验结果强烈表明两组数据都存在潜在的有害偏见。然而,如前所述,关于这两个差距,异性恋组的证据是混合的。

图4:年龄敏感属性的正类的FPR间隙。标记表明平均差距和条形是95%的置信区间。正的差距表明模型错误偏向于某一特定群体。在SST-5中,成人例子从模型错误中获益的比率较高,而老年人例子从模型错误中获益的比率则低得多。SemEval的趋势在这个指标上并不明显。
在这里插入图片描述
图3:敏感属性性的负类的FPR间隙。标记表明平均差距和条形是95%的置信区间。正的差距表明模型错误会不成比例地伤害特定群体。在SemEval中,成人的例子被错误地以低得多的比率投下了负面的光。

在这里插入图片描述

图4:年龄敏感属性的正类的FPR间隙。标记表明平均差距和条形是95%的置信区间。正的差距表明模型错误偏向于某一特定群体。在SST-5中,成人例子从模型错误中获益的比率较高,而老年人例子从模型错误中获益的比率则低得多。SemEval的趋势在这个指标上并不明显。

在这里插入图片描述
图5:年龄敏感属性的负类FPR gap。标记表明平均差距和条形是95%的置信区间。正的差距表明模型错误会不成比例地伤害特定群体。在SemEval中,成人样本遭受不利模型错误的比率始终比其他样本要小得多。对于SST-5,这一结论并不明确。

Age: 与前一节讨论的性的敏感属性一样,本节将分析属于年龄属性的受保护群体的FPR缺口。图4显示了为正类测量的FPR。当考虑来自SST-5数据集的结果时,这一FPR在成人组出现显著的有利增加,而在老年组的例子中观察到不利的下降。有趣的是,这种趋势在SemEval数据集中表现得很弱。另一方面,在考虑图4中的测量时,对于SemEval数据集,成人组受到错误的影响的几率比其他组要低得多。此外,老年人和年轻人出现这种错误的概率似乎更高,尽管当考虑置信区间时,差距并不显著。在SST-5数据集上观察到的差距远没有那么一致。在这两种情况下,对于哪些群体受到模型偏差的影响或受益,人们达成了一致。但是,根据下游任务特定的提示调优数据集,这种偏差的表现方式略有不同。表2强化了这一结论。在其中,我们观察到,关于哪些群体受益或不受益于偏见,模型之间的普遍一致,但识别这些群体的差距根据提示调优数据集的不同而不同。

5 Discussion & Conclusion

在这里插入图片描述
表2:在95%置信水平上,每个受保护组的差距与零不同的净模型数(共7个)。负值意味着差距始终低于零。红色数字表示显著差距的方向是有害的。上面的三行对应敏感属性性,而下面的三行则与年龄相关。

Multidimensional aspects of the experiments: 虽然在本文中,我们已经探索了一种最先进的软提示调优技术的实用性,但所选择的下游任务本身非常具有挑战性,但却具有影响力。这使得这一探索具有两方面的趣味性,但结果的分析是多维的,跨越数据集、模板、提示选择、敏感属性、它们的保护组、语言模型、众多的公平(偏见)度量和图形表示。我们已经尽最大努力以最全面的方式展示了结果。

Template design: 我们使用来自Czarnowska等人[3]的模板。虽然它们为我们的实验提供了一个基线,但它们由非常简单的句子组成,因此很容易被llm理解。在某些情况下,这可能是导致不确定性结果的原因。值得尝试在更复杂的模板上进行实验,这是未来工作的主题。

Types of biases: 许多论文依赖于仅仅确定偏差的度量差异的绝对值。我们使用方向性偏差测量来识别受欢迎和不受欢迎的群体,从而提供更精确的llm偏差分析。需要指出的是,一个被标记为有利群体的群体可能会通过使用不同的偏见量化度量标记为不利群体。因此,不同的偏倚量化公式[23]可能不能同时实现。

Impact of soft-prompt tuning on bias: 持续提示调优通过限制学习参数的数量,最大限度地减少了监督训练任务中存在偏差的潜在影响。此外,它消除了提示设计中的人为因素,消除了在LLM之外引入偏见的另一种途径。但需要注意的是,我们对推文(SemEval)和影评(SST-5)生成的常用情感数据集进行了软提示调优。这些数据集的质量对生成的软提示有很大的影响。值得探讨的是,更高质量的数据集(如果可用)如何影响下游任务的性能和观察到的偏见。

Impact of bias quantification on industry: 基于人工智能的解决方案的行业应用日益扩大。这引发了许多与偏见和伦理相关的问题。在这里,我们提供了使用最先进的技术来识别可能的风险的方法和基础设施设计。我们相信,我们的努力是朝着探索这一新兴领域迈出的一小步,将使整个行业和研究社区受益。

作为下一步,我们计划扩展我们的工作,包括更广泛的语言模型,扩展到更敏感的属性,包括更多的偏见指标和各种各样的下游任务。这是为了在现实世界的部署中更安全、更道德地使用llm。

总结

这篇文章主要是最大的创新点是使用soft-prompt测量模型偏见,但是需要对OPT以及Galactica模型在不同的数据集上进行微调,然后再来测量模型之间的差异性,那么在这个过程中测量的结果与微调的数据集息息相关,测量的结果也可能会因为数据集的不同以及参数选择不同而产生不一样的结果,光靠模型对prompt进行预测,是否存在着本身单词频率高低的问题呢?

A Fairness metrics

Sensitive attribute (S) 被定义为一个属性,它可能是偏见的潜在原因。敏感属性的例子包括年龄、残疾、性别、国籍、种族、宗教和性。

Protected group § 每个敏感属性可以由不同的保护组组成,例如敏感属性Age可以由{child, teenager, adult, older adult}组成。(这里可能包括恒等式的定义)

B Hyperparmeter Details

我们对SemEval和SST5的验证部分进行了网格搜索,以得到以下可能的学习速率值:0.01、0.001、0.0001。我们在表3中列出了为每个模型选择的超参数。所有模型的提示符号数量固定为8。这个值也是通过超参数优化选择的,提示长度为16。
在这里插入图片描述
表3:各模型的超参数选择。参数的选择是基于每个模型在验证集上的性能。

C Datasets

我们根据两个情感数据集调优提示。SemEval-2018 Task 1 - Valence Ordinal Classification [21] (SemEval)和Stanford Sentiment Treebank Five-way (SST-5)[25]集合。SemEval Task 1数据集是英文推文的集合,其整体标签范围为[−3,3]。在[3]之后,这些标签通过映射{负0:[-3,-2],中立1:[- 1,0,1],正2:[2,3]}来压缩。SST-5的标签(非常积极、积极、中性、消极、非常消极)是基于简短的英语电影评论,因此,构成了一个非常不同的基础语料库。与SemEval价标一样,SST-5的五向标注被折叠为三向分类,其方法是保留中性标签,将任何一种正负极性简单地映射为正负类。

D Prompt Tuning

图2所示的图展示了我们使用begingof -sequence标记初始化连续提示和训练有素的提示嵌入的附加扰动来实现提示调优。

相关文章:

【Soft-prompt Tuning for Large Language Models to Evaluate Bias 论文略读】

Soft-prompt Tuning for Large Language Models to Evaluate Bias 论文略读 INFORMATIONAbstract1 Introduction2 Related work3 Methodology3.1 Experimental setup 4 Results5 Discussion & Conclusion总结A Fairness metricsB Hyperparmeter DetailsC DatasetsD Prompt …...

Qt 定时器与定时事件

一、定时器 在头文件.h中进行声明: private slots:void timeOut(); // 定时器超时槽函数在.cpp中进行实现相应的功能: // 构造函数 Widget::Widget(QWidget *parent) :QWidget(parent),ui(new Ui::Widget) {ui->setupUi(this);// 创建一个新的定时…...

《UNUX环境高级编程》(1)UNIX基础

1、引言 2、UNIX体系结构 操作系统 一种软件,控制计算机硬件资源,提供程序运行环境。操作系统包含了内核和一些其他软件(如shell、公用函数库、应用程序等)。例如Linux就是GNU操作系统的内核,因此也称为GNU/Linux操作…...

MATLAB 入门之旅摘要

matlab官方基础课程,重温或者入门都是不错的选择。 MATLAB 入门之旅 MATLAB 入门之旅 | 自定进度在线课程 - MATLAB & Simulink 基本语法 示例说明x pi使用等号 () 创建变量。 左侧 (x) 是变量的名称,其值为右侧 (pi) 的值。y sin(-5)您可以使用括…...

chatgpt赋能python:Python小数运算:解决精度问题的最佳实践

Python小数运算:解决精度问题的最佳实践 在进行小数运算时,Python是一种十分常用的语言,但在进行小数运算时,由于二进制和十进制之间的转换不完全,可能会导致一些精度问题。为了避免这些问题,让我们一起了…...

Linux 安装Docker完整教程(六)

文章目录 背景一、Docker简介二、docker desktop 和 docker engin 区别三、Linux 安装Docker1. 安装docker的前置条件:2. 查看Docker版本3. 检查是否安装过Docker4. Docker自动化安装 (不想自带化安装的可跳过本步骤,选择手动安装)5. Docker手动安装&…...

手机连接adb 相关问题汇总

目录 关于端口占用问题1 关于修改adb 端口配置问题2 方法3 方法4 关于端口占用问题1 转载链接:https://www.jianshu.com/p/902a89b06271 报错信息: error: no device/emulators found error: device still connecting 解决方案: 重启…...

MySQL数据相关操作

一、介绍 MySQL数据操作: DML 在MySQL管理软件中,可以通过SQL语句中的DML语言来实现数据的操作,包括 使用INSERT实现数据的插入 UPDATE实现数据的更新 使用DELETE实现数据的删除 使用SELECT查询数据以及。 二、插入数据INSERT 1. 插入完整…...

2023年5月青少年软件编程(Python) 等级考试试卷(四级)

青少年软件编程(Python) 等级考试试卷(四级)2023.6 分数: 100 题数: 38 一、 单选题(共 25 题, 共 50 分) 1.下列程序段的运行结果是? ( ) def s(n): if n0: …...

Python selenium自动化测试模型图解

1、线性测试 优势:每一个脚本都是完整独立的,每一个脚本对应一个测试用例 缺点:开发成本高,会有重复操作重复脚本;维护成本也高,修改重复操作的脚本时,要逐一进行修改。 2、模块化驱动测试 …...

【详解】篮球记分牌硬件及代码

篮球记分牌设计 1 系统设计1.1 设计任务 1.2 性能指标要求1.2 设计思路及设计框图1.2.1设计思路1.2.2总体设计框图1.2.3电路原理图1.2.3 PCB布线图 2 主要程序模块的设计及原理2.1 外部中断0 2.2 菜单2.3 两队比分及两队犯规次数显示及修改2.3.1选择功能2.3.2修改功能2.3.3显示…...

FreeRTOS实时操作系统(二)系统文件代码学习

文章目录 前言系统配置任务创建任务创建删除实践 前言 接着学习正点原子的FreeRTOS教程,涉及到一些详细的系统内文件代码 系统配置 可以通过各种的宏定义来实现我们自己的RTOS配置(在FreeRTOSconfig.h) “INCLUDE”:配置API函数…...

分布式驱动电动汽车定速巡航控制

目录 前言 1. 电机模型 1.1电机数学模型 1.2 电机传递函数模型 2. 控制器设计...

如何启动和关闭分布式集群

分布式集群是由多个节点组成的系统,可以提供高性能、高可用、高扩展的数据处理能力。本文介绍如何启动和关闭一个包含hadoop、zookeeper、hbase和spark的分布式集群。 目录 启动顺序 关闭顺序 启动和关闭hadoop 启动hadoop 关闭hadoop 查看网页 启动和关闭z…...

WLAN基本概述及简单组网配置

WLAN概述 WLAN即Wireless LAN(无线局域网),是指通过无线技术构建的无线局域网络。WLAN广义上是指以无线电波、激光、红外线等无线信号来代替有线局域网中的部分或全部传输介质所构成的网络。 家庭WLAN产品: 家庭Wi-Fi路由器:通过把有线网络信号转换成无线信号,供家庭电…...

响应式Web设计单元测试

响应式Web设计单元测试 一. 单选题 (共8题,40.0分)二. 多选题 (共5题,25.0分)三. 判断题 (共7题,35.0分) 一. 单选题 (共8题,40.0分) …...

linux计划任务管理

1. crond计划任务概述 什么是计划任务,计划任务类似于我们平时生活中的闹钟。 在Linux系统的计划任务服务crond可以满足周期性执行任务的需求。 crond进程每分钟会处理一次计划任务, 计划任务主要是做一些周期性的任务目前最主要的用途是定时备份数据 Schedule on…...

研一,有点迷茫。

作者:阿秀 校招八股文学习网站:https://interviewguide.cn 这是阿秀的第「277」篇原创 小伙伴们大家好,我是阿秀。 最近回答了不少大一大二研一在读的学习圈中学弟学妹的咨询问题,基本都是计算机学习、进度、疑惑等等相关的问题&a…...

【新版】系统架构设计师 - 软件工程

个人总结,仅供参考,欢迎加好友一起讨论 文章目录 架构 - 软件工程考点摘要软件工程概述软件能力成熟度模型软件过程模型瀑布模型原型化模型增量模型螺旋模型喷泉模型V模型迭代与增量的概念CBSD基于构件的模型(构件组装模型/基于构件的软件开发…...

html实现好看的个人介绍,个人主页模板3(附源码)

文章目录 1.设计来源1.1 主界面1.2 关于我界面1.3 教育成就界面1.4 项目演示界面1.5 联系我界面 2.效果和源码2.1 动态效果2.2 源代码2.2 源代码目录 源码下载 作者:xcLeigh 文章地址:https://blog.csdn.net/weixin_43151418/article/details/131263195 …...

RocketMQ延迟消息机制

两种延迟消息 RocketMQ中提供了两种延迟消息机制 指定固定的延迟级别 通过在Message中设定一个MessageDelayLevel参数,对应18个预设的延迟级别指定时间点的延迟级别 通过在Message中设定一个DeliverTimeMS指定一个Long类型表示的具体时间点。到了时间点后&#xf…...

通过Wrangler CLI在worker中创建数据库和表

官方使用文档:Getting started Cloudflare D1 docs 创建数据库 在命令行中执行完成之后,会在本地和远程创建数据库: npx wranglerlatest d1 create prod-d1-tutorial 在cf中就可以看到数据库: 现在,您的Cloudfla…...

uni-app学习笔记二十二---使用vite.config.js全局导入常用依赖

在前面的练习中,每个页面需要使用ref,onShow等生命周期钩子函数时都需要像下面这样导入 import {onMounted, ref} from "vue" 如果不想每个页面都导入,需要使用node.js命令npm安装unplugin-auto-import npm install unplugin-au…...

CMake基础:构建流程详解

目录 1.CMake构建过程的基本流程 2.CMake构建的具体步骤 2.1.创建构建目录 2.2.使用 CMake 生成构建文件 2.3.编译和构建 2.4.清理构建文件 2.5.重新配置和构建 3.跨平台构建示例 4.工具链与交叉编译 5.CMake构建后的项目结构解析 5.1.CMake构建后的目录结构 5.2.构…...

java调用dll出现unsatisfiedLinkError以及JNA和JNI的区别

UnsatisfiedLinkError 在对接硬件设备中,我们会遇到使用 java 调用 dll文件 的情况,此时大概率出现UnsatisfiedLinkError链接错误,原因可能有如下几种 类名错误包名错误方法名参数错误使用 JNI 协议调用,结果 dll 未实现 JNI 协…...

pam_env.so模块配置解析

在PAM(Pluggable Authentication Modules)配置中, /etc/pam.d/su 文件相关配置含义如下: 配置解析 auth required pam_env.so1. 字段分解 字段值说明模块类型auth认证类模块,负责验证用户身份&am…...

JVM垃圾回收机制全解析

Java虚拟机(JVM)中的垃圾收集器(Garbage Collector,简称GC)是用于自动管理内存的机制。它负责识别和清除不再被程序使用的对象,从而释放内存空间,避免内存泄漏和内存溢出等问题。垃圾收集器在Ja…...

Linux云原生安全:零信任架构与机密计算

Linux云原生安全:零信任架构与机密计算 构建坚不可摧的云原生防御体系 引言:云原生安全的范式革命 随着云原生技术的普及,安全边界正在从传统的网络边界向工作负载内部转移。Gartner预测,到2025年,零信任架构将成为超…...

探索Selenium:自动化测试的神奇钥匙

目录 一、Selenium 是什么1.1 定义与概念1.2 发展历程1.3 功能概述 二、Selenium 工作原理剖析2.1 架构组成2.2 工作流程2.3 通信机制 三、Selenium 的优势3.1 跨浏览器与平台支持3.2 丰富的语言支持3.3 强大的社区支持 四、Selenium 的应用场景4.1 Web 应用自动化测试4.2 数据…...

手机平板能效生态设计指令EU 2023/1670标准解读

手机平板能效生态设计指令EU 2023/1670标准解读 以下是针对欧盟《手机和平板电脑生态设计法规》(EU) 2023/1670 的核心解读,综合法规核心要求、最新修正及企业合规要点: 一、法规背景与目标 生效与强制时间 发布于2023年8月31日(OJ公报&…...