当前位置: 首页 > article >正文

大模型训练中的GPU作用解析

📌  友情提示
本文内容由银河易创AI(https://ai.eaigx.com)创作平台的gpt-4-turbo模型辅助完成,旨在提供技术参考与灵感启发。文中观点或代码示例需结合实际情况验证,建议读者通过官方文档或实践进一步确认其准确性。

随着深度学习的迅猛发展,模型的规模与复杂度不断提升,特别是在自然语言处理、计算机视觉等领域,出现了如GPT-3、BERT、ResNet等大型预训练模型。这些大模型的训练通常需要消耗大量的计算资源,这便使得GPU的作用愈加重要。本文将深入探讨大模型训练中GPU的重要性,分析GPU相较于传统CPU的优势,以及在实际训练中的应用场景。

一、了解GPU与CPU的基本区别

在深入讨论GPU在大模型训练中的重要性之前,首先有必要了解GPU与CPU(中央处理单元)之间的基本区别。这两者虽然都是计算机中的核心组件,但其设计目标、工作方式以及在处理任务的效率上存在显著差异。

1.1 性能架构
  • CPU(中央处理单元) :
    • 通用计算能力:CPU是计算机的“大脑”,用于执行各种类型的计算任务。它能够处理从简单的算术运算到复杂的逻辑判断等各种操作,设计初衷是为了高效处理逻辑和控制任务。
    • 核心数与性能:现代CPU通常具有较少的核心,通常在四个到十六个之间。然而,它们的每个核心都有较强的计算能力和高主频,使之在单线程和低延迟任务上表现出色。CPU在执行单个复杂任务时,能够提供较快的处理速度和响应时间。
  • GPU(图形处理单元) :
    • 并行计算设计:GPU最初是为图形渲染而开发,旨在同时处理大量的图像数据,因此其架构具有高度的并行性。GPU能够在同一时间内同时运行上千个线程。
    • 核心数量:现代GPU通常包含数百到上千个小型处理核心。虽然这些核心的单个计算能力稍弱于CPU,但其并行处理能力为大规模数据计算提供了巨大的优势。更高的并行度使得GPU在执行重复性的计算任务时,能够达到惊人的速度。
1.2 数据处理方式
  • CPU的数据处理方式

    • CPU在处理任务时,采用的是“控制-计算-存储”的方式,能够顺序并高效地处理各种类型的数据。
    • 在执行复杂的逻辑操作、条件判断、以及程序控制流时,CPU能够以极高的效率执行,适合处理复杂的数据依赖关系。
  • GPU的数据处理方式

    • GPU则采用了“大量相同的简单计算”这一理念,主要适合大规模数据集中的相同运算。例如在图像处理中,像素的颜色变换、滤镜应用等操作可以并行进行,这样的场景对GPU极有利。
    • 在执行浮点运算、矩阵运算等计算密集型任务时,GPU显示出更为优越的性能,这是其设计之初就优先考虑的方向。
1.3 应用场景的差异
  • CPU的应用场景

    • CPU非常适合于办公软件、编程、操作系统中的各种控制逻辑等场景。这些任务通常对计算的准确性和响应速度有较高的要求,且往往是单线程的。
    • 在涉及复杂的控制逻辑、顺序执行的应用场景中,CPU依然是不可或缺的组成。
  • GPU的应用场景

    • GPU因其优越的并行处理能力,被广泛应用于科学计算、数据挖掘、机器学习、深度学习、图像和视频处理等领域。在这些任务中,GPU能够快速处理大量数据,以显著提高工作效率。
    • 特别是在深度学习中,当训练包括数百万甚至数亿参数的模型时,GPU的高并行度成为了其必不可少的选择。
1.4 性能与效率的比较
  • 速度与效率:CPU在处理复杂的控制逻辑和少量数据时表现良好,但在处理大量相同性质的计算时,GPU的优势便体现得尤为明显。GPU在处理深度学习中常用的矩阵乘法、向量运算等任务时,速度可以比CPU快数十倍到数百倍。

  • 内存带宽:GPU的内存带宽相较于CPU通常更高,这使得GPU可以更快地访问和处理从内存中加载的数据,这一点在处理大型数据集时至关重要。

1.5 小结

综上所述,CPU和GPU在架构、数据处理方式、应用场景以及性能比较上均存在显著的区别。理解这些差异对于选择和合理使用计算资源、特别是在大模型训练中合理使用GPU至关重要。在后续的讨论中,将会进一步探讨GPU在大模型训练中所发挥的重要作用,以及如何充分利用其优势以提升深度学习模型的训练效率。

二、为什么大模型训练需要GPU?

深度学习的发展,特别是大模型(如GPT、BERT、ResNet、Vision Transformer等)的广泛应用,对计算资源的要求呈指数级增长。以GPT-3为例,其包含1750亿个参数,训练一次所需的FLOPs(浮点运算次数)高达3.14×10²³,普通的CPU无法在可接受的时间内完成如此庞大的计算。因此,GPU成为训练大模型时不可或缺的核心硬件。

以下将从多个维度阐释GPU为何如此关键:


2.1 加速训练过程

大模型通常意味着更深的网络结构(更多层)、更宽的网络宽度(更多通道)、更大的输入维度(如高分辨率图像或长文本序列)。这些因素共同导致计算复杂度显著增加。

GPU的并行计算能力可以显著加速以下训练阶段:

  • 前向传播(Forward Pass) :计算神经网络的输出,需要大量矩阵乘法与加法操作。
  • 反向传播(Backward Pass) :计算梯度并进行参数更新,涉及大量矩阵转置与乘法。
  • 参数更新(Optimization) :如Adam、SGD等优化器,需对模型中上亿甚至数十亿个参数进行快速调整。

以BERT-base模型在单个CPU上训练为例,可能需要数周甚至更久;而使用单张高性能GPU(如NVIDIA A100)则只需几天甚至数小时,极大地提高了训练效率。


2.2 高效执行矩阵运算与张量操作

深度学习本质上是张量计算的堆叠。网络中的每一层几乎都可抽象为矩阵运算(如卷积、全连接层、注意力机制等),例如:

  • 卷积操作可视为稀疏矩阵乘法;
  • Transformer中的自注意力机制大量依赖矩阵乘法(如Q×K^T,softmax,乘以V);
  • BatchNorm、LayerNorm等归一化操作涉及向量求均值和方差。

GPU的SIMD(Single Instruction Multiple Data)架构特别适合这种批量、重复的计算。通过CUDA(NVIDIA)或OpenCL(通用平台),开发者可以直接控制并行化粒度与调度策略,使张量操作高效利用数千个计算核心。


2.3 处理大规模数据的带宽优势

GPU不仅计算强大,内存带宽也远高于CPU。例如:

  • 主流CPU带宽为几十GB/s;
  • 而一张NVIDIA A100 GPU的内存带宽可达1555 GB/s,提升一个数量级以上。

这意味着在数据传输、模型参数加载、梯度交换等过程中,GPU可以更快地完成内存访问操作,减少瓶颈,提升整体训练效率。

此外,GPU专有显存(如HBM2、GDDR6X等)在速度和吞吐量上也远超普通DDR内存,使得大模型的权重和中间激活值可以高效存储与读取,避免频繁的内存调度。


2.4 支持大规模并行与分布式训练

大模型往往不仅需要单卡GPU的算力,还依赖于多GPU甚至跨节点集群的分布式训练。GPU生态系统为此提供了完善的技术支持:

  • 数据并行(Data Parallelism) :不同GPU处理不同批次的数据,但共享模型参数。训练中参数通过NCCL、Horovod等库高效同步。
  • 模型并行(Model Parallelism) :当模型大到单个GPU无法容纳时,可将不同网络层拆分分布在多个GPU上。
  • 混合并行(Hybrid Parallelism) :结合数据并行与模型并行,用于超大规模模型训练,如GPT-4、PaLM等。

这些策略只有在GPU的高带宽互联(如NVLink、PCIe 4.0、InfiniBand)与成熟的通信库(如NCCL、MPI)支持下才能实现稳定、高效的训练过程。


2.5 节省能源与成本

虽然GPU单价高于CPU,但从整体成本效率(cost-performance ratio)来看,GPU在大模型训练中仍具有优势:

  • 能效比更高:GPU每单位功耗提供更多的TFLOPS(浮点性能)。
  • 缩短开发周期:更快的模型训练意味着更高的实验迭代速度,从而减少整体项目周期。
  • 更高的资源利用率:通过GPU虚拟化(如NVIDIA MIG、Kubernetes + GPU Operator),可实现多任务并发训练,提高GPU资源利用率。

2.6 深度学习框架的GPU优化支持

主流深度学习框架(如PyTorch、TensorFlow、JAX等)都对GPU进行了高度优化:

  • 利用cuDNN、cuBLAS等NVIDIA深度优化库;
  • 支持自动混合精度(AMP),在不影响训练质量的前提下降低计算复杂度与内存消耗;
  • 内建分布式训练能力(如PyTorch DDP、TensorFlow MirroredStrategy);

框架级别的优化进一步提升了GPU在实际训练中的表现,简化了开发者部署大模型训练的流程。


小结

GPU之所以成为大模型训练的首选,是因为它集高并行计算能力、强大的带宽支持、灵活的多卡扩展能力于一身,并在软件生态上得到了完美支持。没有GPU,当前的大模型训练几乎无法实现,训练成本将呈几何级上升,训练周期将成倍增长。

在今后的AI发展中,无论是训练百亿参数的模型,还是部署轻量化推理版本,GPU都将持续扮演核心计算平台的角色。对于开发者而言,理解GPU的优势并合理调优,将是提升模型性能与效率的关键一环。

三、GPU在训练中的应用场景

随着深度学习技术的不断演进,从计算机视觉到自然语言处理,GPU的应用场景也在不断扩展。大模型训练依赖于GPU的强大计算能力和并行处理能力,使得在多个领域的应用变得更加高效。接下来我们将深入探讨几种主要的应用场景,以及GPU在这些场景中的具体作用。


3.1 图像识别与处理

图像识别是计算机视觉领域的核心任务之一,包括但不限于图像分类、目标检测、图像分割等。

  • 卷积神经网络(CNN) :CNN是专门设计用来处理图片数据结构的网络。它通过多层卷积及池化操作提取特征,并通过全连接层进行分类。在训练这些网络时,GPU因其强大的并行计算能力,可以将大量图片数据同时送入网络,显著减少训练时间。

  • 迁移学习:在一些应用场景中,利用预训练模型(如VGG、ResNet、Inception等)进行迁移学习已成为常见实践。使用GPU,可以大幅加速微调(fine-tuning)过程,使得将已有大规模数据集的知识快速应用到特定任务上成为可能。

  • 实时处理:例如在自动驾驶、安防监控等需要实时响应的系统中,GPU能够对输入的视觉数据进行即刻处理,进行快速目标检测与识别。在这些应用中,训练出的模型需要频繁推理并给出及时反馈,这种情况下GPU的低延迟特性显得尤为重要。


3.2 自然语言处理(NLP)

在自然语言处理领域,GPU同样发挥了不可或缺的作用,尤其是在处理大规模文本数据与复杂的语言模型时。

  • 循环神经网络(RNN)及其变种:尽管在新技术如Transformer的出现后,RNN的应用有所减少,但在某些语音识别、时间序列预测等领域,仍然需要对长句子或时间序列数据进行分析。GPU能通过并行化处理多个单词的向量表示,加速RNN的训练过程。

  • Transformer模型:当前,大多数自然语言处理任务使用基于Transformer的模型(如BERT、GPT-2、GPT-3等)。Facebook的BART和OpenAI的GPT在训练时都利用了数百个GPU进行分布式训练,以便在大规模数据集(例如Wikipedia、Common Crawl)上实现迅速、高效的训练。Transformer的自注意力机制特别适合并行计算,这使得GPU在这类模型中的应用异常高效。

  • 生成与推理:在使用生成模型进行文本生成、翻译或摘要任务时,GPU的计算能力可以支持迭代优化,使得生成质量不断提高,而训练过程中对大量数据的处理效率又使得实时生成成为可能。


3.3 强化学习

强化学习(Reinforcement Learning, RL)涉及到智能体通过与环境的交互获得奖励。在许多情况下,GPU提供了关键的支持,使得大规模的实验和模型训练变得可行。

  • 蒙特卡洛方法:许多强化学习算法(如DQN、PPO等)使用蒙特卡洛方法进行价值估计和策略评估。GPU能够快速执行大量并行的环境交互,使得这些计算密集型算法的训练速度得以提高。

  • 策略梯度和Actor-Critic方法:这些方法需要频繁地更新参数和评估策略,借助GPU的并行计算,可以大幅增加每个回合内的样本数量,从而有效提高收敛速度。

  • 复杂环境模拟:例如,在玩多种游戏(如Atari、DOTA 2等)时,GPU能够高效利用并行环境进行多次试验,加速训练过程。


3.4 语音识别与合成

在语音识别与合成领域,GPU同样发挥着重要作用,尤其是在处理音频信号和训练语音模型方面。

  • 深度神经网络(DNN) 和长短时记忆(LSTM)网络的结合在语音处理任务中得到了广泛应用。GPU可加速多层网络充当声学模型和语言模型,从而实现更好的识别率。

  • 端到端训练:近年来,基于注意力机制的端到端语音识别方法(如深度学习结合CTC损失)逐渐受到青睐。GPU在模型训练中显著提高了对长序列的支持,便于在大规模数据集上实现快速并准确的识别效果。


3.5 其他应用场景

除了上述领域,GPU在许多其他应用场景中同样至关重要:

  • 金融数据分析:在算法交易、风险评估、市场预测等应用中,GPU可以高效处理时间序列数据和大量的金融模型,加速仿真与预测。

  • 大科学计算:在天气模拟、基因组序列比对、物理仿真等科学研究中,GPU也被广泛应用于复杂的数值计算,解决庞大的方程组与计算密集型问题。

  • 生成对抗网络(GANs) :在图像生成、风格迁移等领域,GAN模型依赖于大量的对抗训练,而GPU可以通过高效并行化多个生成器和判别器之间的训练过程,显著加快模型训练周期。


小结

随着深度学习技术的不断发展,GPU的应用场景已从早期的图像处理扩展到自然语言处理、强化学习、语音识别等多个领域。GPU的强大并行处理能力和高效的数据处理性能,使得在这些复杂任务中实现大规模模型训练不仅变得可行,而且变得更加高效。随着硬件技术的进一步发展和框架的不断优化,以及专业化软件的不断推出,GPU无疑将在未来的AI领域中继续占据举足轻重的地位。

四、未来的发展趋势

随着人工智能和深度学习领域的迅猛发展,GPU的架构与应用正在经历显著的变化,未来的发展趋势将主要集中在以下几个方面:

4.1 更高效的硬件架构
  • 专用加速器的兴起:近年来,除了传统的GPU,出现了多个针对深度学习任务优化的硬件加速器,如Tensor Processing Units(TPU)、Field Programming Gate Arrays(FPGA)以及其他专用集成电路(ASIC)。这些硬件在特定的计算任务中,尤其是在执行神经网络的前向与反向传播时,可能会提供更高的性能和能效。

  • 集成化与异构计算:未来的计算平台将更加强调集成化,CPU、GPU、TPU等多种计算单元的协同工作成为趋势。在单一芯片上集成多种处理单元,使得数据在处理过程中可以减少传输延迟,提高整体效率。这种异构计算模式将最大限度地利用各类处理单元的优势。

4.2 软件及算法的优化
  • 神经架构搜索(Neural Architecture Search, NAS) :随着深度学习模型变得越来越复杂,自动化模型设计的需求日益增长。NAS能够在给定的计算资源下,通过自动搜索最优模型架构,提高整个模型的准确性和效率,并且将持续依赖GPU的并行处理能力。

  • 自适应学习率与动态计算图:未来的深度学习算法将可能引入更多自适应学习策略,这些策略能够根据训练过程中的反馈动态调整学习率,并在GPU上进行高效更新。同时,动态计算图的使用将减少不必要的计算,使得训练过程更加高效。

4.3 开放平台与跨领域合作
  • 开放式生态系统:深度学习框架(如TensorFlow、PyTorch等)将继续强化与GPU硬件之间的兼容性与协同发展,通过开源社区的不断贡献提升模型训练的效率。同时,也会有更多的框架支持新兴硬件(如TPU、FPGA),促进技术之间的高度融合。

  • 跨领域合作:各大技术公司、高校及研究机构之间的合作将不断加深,推动GPU技术在多个领域的应用,包括医疗、气候研究、金融等,利用强大的计算力解决复杂的实际问题。在这过程中,GPU的计算能力将进一步增强算法模型的实际应用效果。

4.4 能效与可持续发展
  • 绿色计算:随着全球对可持续发展的关注,未来GPU的研发将更多地考虑能效比。高能效、低功耗的设计,将成为硬件发展的重要方向。研发更加环保的材料与技术,提升计算性能的同时,降低能源使用,将是未来趋势之一。

  • 边缘计算:随着物联网的崛起,对边缘设备(如智能设备、传感器等)的运算需求不断上升。GPU的强大计算能力将被应用于边缘计算场景,实现快速数据处理与智能决策,提升系统的实时反应能力,这对提升用户体验具有重要意义。


五、总结

在当今深度学习高速发展的背景下,GPU作为核心计算单元的重要性不言而喻。它以其强大的并行计算能力、高内存带宽以及针对深度学习优化的生态系统,在众多应用领域扮演着不可或缺的角色。

通过加速训练过程、支持复杂模型、处理大规模数据、实现高效的分布式训练,GPU已成为研究人员和工程师实现深度学习突破的强大助力。随着硬件及算法的不断优化,尤其是异构计算架构的兴起,GPU的性能将持续提升,推动深度学习技术走向更高的层次。

未来,我们将看到GPU在大模型训练中的应用将更为广泛,不仅限于当前的图像识别、自然语言处理、强化学习等领域,还将扩展到更多跨界领域。同时,注重能效与可持续发展也将成为积极推动技术进步的核心议题。

总结而言,GPU不仅是模型训练的动力引擎,更是推动整个人工智能时代快速进步的重要基础。对开发者和科研工作者而言,合理利用GPU,为深度学习模型的效率与精确性提供强有力的支持,将是未来工作的重中之重。在这个快速发展的时代,了解GPU的技术动态与未来趋势,无疑将为各领域的研究与实践提供新的机遇和挑战。

相关文章:

大模型训练中的GPU作用解析

📌 友情提示: 本文内容由银河易创AI(https://ai.eaigx.com)创作平台的gpt-4-turbo模型辅助完成,旨在提供技术参考与灵感启发。文中观点或代码示例需结合实际情况验证,建议读者通过官方文档或实践进一步确认…...

Flutter Web 3.0革命:用WebGPU实现浏览器端实时光追渲染,性能提升300%

一、WebGPU为何是图形渲染的未来&#xff1f; 1. 传统WebGL的致命瓶颈 // WebGL 2.0绘制调用示例&#xff08;每秒帧率<45&#xff09; gl.drawElements(gl.TRIANGLES, vertexCount, gl.UNSIGNED_SHORT, 0); 性能对比表&#xff1a; 场景WebGL 2.0WebGPU三角形绘制速率…...

DeepSeek-V3-0526乍现

DeepSeek-V3-0526 可能是 DeepSeek 最新发布的模型版本&#xff0c;相较于之前的 DeepSeek-V3-0324&#xff0c;它在代码能力、推理性能和本地部署方面有了进一步提升。以下是关于该版本的主要信息&#xff1a; - DeepSeek-V3-0526 在多项基准测试中表现优异&#xff0c;性能…...

Java设计模式之观察者模式:从基础到高级的全面解析

文章目录 一、观察者模式基础概念1.1 什么是观察者模式?1.2 观察者模式的四大角色1.3 观察者模式类图二、观察者模式实现步骤2.1 基础实现步骤2.2 详细代码实现第一步:定义主题接口第二步:定义观察者接口第三步:创建具体主题第四步:创建具体观察者第五步:客户端使用三、观…...

C/C++---类型转换运算符

在C中&#xff0c;类型转换运算符&#xff08;Type Conversion Operator&#xff09;允许类对象在需要时自动转换为其他类型。这是一种特殊的成员函数&#xff0c;能够增强类的灵活性和交互性。 1. 基本语法 类型转换运算符的声明格式为&#xff1a; operator 目标类型() co…...

STM32 I2C 通信协议

1、原理 1、硬件电路 一主多从&#xff0c;单片机作为总线主机 SDA&#xff1a;数据线 SCL&#xff1a;时钟线 主机对SCL线完全控制&#xff0c;从机只能读取&#xff1b;在空闲状态下&#xff0c;主机可以主动发起对SDA的控制&#xff0c;只有在从机发送数据和从机应答的时…...

【后端高阶面经:Elasticsearch篇】38、Elasticsearch 高可用架构解析:分片容灾、Translog 调优与双集群

一、高可用架构核心:节点角色与分布式设计 (一)节点角色精细化划分 1. 四大核心节点类型 节点类型核心职责资源配置建议典型部署数量主节点(Master)集群元数据管理(索引创建、分片分配、节点选举)CPU≥4核,内存≥16GB,禁用数据存储3-5个(奇数)数据节点(Data)存储…...

5月26日复盘-自注意力机制

5月26日复盘 一、自注意力机制 Self-Attention Mechanism&#xff0c;自注意力机制&#xff0c;用于捕捉序列数据内部依赖关系的关键技术。它在NLP和CV中非常重要&#xff0c;尤其是Transformer。 1. 产生背景 自注意力机制的产生与序列建模任务&#xff08;如机器翻译、文…...

*HTML `<script>` 标签中的核心属性解析:掌控脚本加载与执行的艺术

HTML <script> 标签中的核心属性&#xff1a;掌控脚本加载与执行的艺术 在网页开发中&#xff0c;<script> 标签是 JavaScript 的“入口”。它不仅决定了脚本如何加载和执行&#xff0c;还深刻影响着页面性能、安全性和跨域策略。本文将深入解析 <script> 标…...

聊一聊接口测试如何设计有效的错误响应测试用例

目录 一、 覆盖常见的错误场景 a. 输入验证错误 b. 认证与权限错误 c. 资源操作错误 d. 业务逻辑错误 e. 服务端错误 二、设计测试用例的关键原则 a. 明确的错误信息 b. 正确的 HTTP 状态码 c. 幂等性处理 d. 安全性与敏感信息 三、测试用例设计模板 四、工具与自…...

记忆上传与自我同一性的哲学-技术综合分析

记忆上传与自我同一性的哲学-技术综合分析 在2025年的科技前沿&#xff0c;记忆上传技术已取得突破性进展&#xff0c;但其引发的"自我同一性"问题远比技术实现更为复杂。当记忆被上传至云端&#xff0c;所形成的是真实的自我延续&#xff0c;还是仅仅是一个数据的副…...

人工智能工程师学习路线总结(下)

目录 人工智能工程师学习路线总结&#xff08;下&#xff09; 十、深度学习框架进阶 &#xff08;一&#xff09;TensorFlow分布式训练 &#xff08;二&#xff09;PyTorch模型优化 十一、自然语言处理&#xff08;NLP&#xff09;进阶 &#xff08;一&#xff09;Transf…...

Vue:axios(POST请求)

发送 POST 请求 基本用法 axios.post(/api/login, {username: lcyyyy,password: 123456 }) .then(response > {console.log(请求成功:, response.data); }) .catch(error > {console.error(请求失败:, error); });在 Vue 组件中使用 export default {methods: {async …...

企业级调度器LVS (面试版)

1. 什么是 LVS?有什么作⽤? LVS ( Linux Virtual Server )是⼀个基于 Linux 内核实现的⾼性能、可扩展和可靠的负载均衡。它将多个服务器组成⼀个⾼可⽤、⾼性能和⾼可靠的虚拟服务器集群,通过将客户端的请求转发到不同的后端服务器,实现负载均衡和⾼可⽤性。 2.什么是 …...

从OTA双雄「共舞」,透视旅游持续繁荣背后的结构性跃迁

2025年&#xff0c;中国旅游市场仍在持续复苏中。 文化和旅游部发布的国内出游数据显示&#xff0c;2025年一季度&#xff0c;国内出游人次17.94亿&#xff0c;比上年同期增加3.75亿&#xff0c;同比增长26.4%&#xff1b;国内居民出游总花费1.80万亿元&#xff0c;比上年同期…...

华为OD机试真题——虚拟理财游戏(2025A卷:200分)Java/python/JavaScript/C/C++/GO最佳实现

2025 A卷 200分 题型 本专栏内全部题目均提供Java、python、JavaScript、C、C++、GO六种语言的最佳实现方式; 并且每种语言均涵盖详细的问题分析、解题思路、代码实现、代码详解、3个测试用例以及综合分析; 本文收录于专栏:《2025华为OD真题目录+全流程解析+备考攻略+经验分…...

Vue-01(Vue CLI创建项目以及文件配置说明)

了解 Vue CLI 及其功能 Vue CLI 是搭建、构建和管理 Vue.js 项目的标准工具。它通过提供一致的项目结构、处理复杂的构建配置以及通过插件提供一组丰富的功能来简化开发工作流程。了解 Vue CLI 对于任何 Vue.js 开发人员来说都至关重要&#xff0c;因为它可以显着提高生产力并…...

华为云Flexus+DeepSeek征文 | DeepSeek-V3/R1商用服务开通体验全流程及使用评测

作者简介​ 我是摘星&#xff0c;一名专注于云计算和AI技术的开发者。本次通过华为云MaaS平台体验DeepSeek系列模型&#xff0c;将实际使用经验分享给大家&#xff0c;希望能帮助开发者快速掌握华为云AI服务的核心能力。 目录 1. 前言 2. 开通DeepSeek-V3/R1商用服务 2.1 准…...

redis列表类型

练习命令使用&#xff0c;具体如下&#xff1a; lpush llen lrange lpoprpush lindex lset rpop linsert LPUSH命令用来向列表左边增加元素&#xff0c;返回值表示增加元素后列表的长度 127.0.0.1:6379> lpush letter A B C (integer) 3 127.0.0.1:6379> type letter …...

人工智能数学基础实验(一):智能推荐系统实战

一、实验目的 本次实验旨在通过构建用户相似度矩阵和实现个性化推荐&#xff0c;帮助我们直观理解推荐系统的核心原理及其背后的数学基础。具体目标如下&#xff1a; 运用 Python 计算用户间的评分相似度&#xff0c;掌握余弦相似度等数学工具在衡量用户偏好中的应用&#xff…...

uni-app学习笔记十二-vue3中组件传值(对象传值)

一.单对象传值 父组件定义对象的值 <template><view><UserInfo :obj"userinfo"></UserInfo></view> </template><script setup>import {ref} from "vue"const userinfo ref({name:"蛛儿",avatar:&…...

Vue.js教学第十四章:Vuex模块化,打造高效大型应用状态管理

Vuex(二):深入剖析 Vuex 模块化与高级应用 在大型 Vue 应用开发中,随着应用功能的不断扩展和复杂度的增加,状态管理的难度也随之上升。Vuex 作为 Vue.js 的官方状态管理库,提供了模块化功能,使得我们可以将状态管理逻辑拆分成多个模块,从而提高 Vuex 的可维护性和可读…...

Ubuntu/Linux 服务器上调整系统时间(日期和时间)

在 Ubuntu/Linux 服务器上调整系统时间&#xff08;日期和时间&#xff09;可以通过以下命令实现&#xff0c;具体分为 手动设置 和 自动同步&#xff08;NTP&#xff09;两种方式&#xff1a; 1. 查看当前系统时间 date或查看详细时区信息&#xff1a; timedatectl2. 手动设…...

win11 禁用/恢复 内置笔记本键盘(保证管用)

文章目录 禁用启用 禁用 1&#xff09;按下 win x&#xff0c;点击 设备管理器 2&#xff09;拔掉所有笔记本外设&#xff08;一定要都拔掉&#xff0c;不然后面禁用设备会混淆&#xff09;&#xff0c;然后右键点击 键盘 > HID Keyboard Device 2&#xff09;点击 更新…...

精度不够?光纤激光尺0.2ppm误差解锁微米级制造

当“精度焦虑”成为制造业的隐形门槛&#xff1a; 在半导体光刻中&#xff0c;1nm偏差可能导致整片晶圆报废&#xff1b; 在精密机床加工中&#xff0c;热变形让传统测量工具“失灵”…… “高精度、高稳定、抗干扰”——工业超精密制造的三大痛点&#xff0c;如何破局&#xf…...

Android 16系统源码_自由窗口(一)触发自由窗口模式

前言 从 Android 7.0 开始&#xff0c;Google 推出了一个名为“多窗口模式”的新功能&#xff0c;允许在设备屏幕上同时显示多个应用&#xff0c;多窗口模式允许多个应用同时共享同一屏幕&#xff0c;多窗口模式&#xff08;Multi Window Supports&#xff09;目前支持以下三种…...

sqli-labs第十八关——POST-UA注入

一&#xff1a;判断注入类型 先在用户名和密码框尝试判断&#xff0c;发现都得不到需要的回显 所以查看源码 可以发现username和password的输入后端都做了检查&#xff0c;没法直接注入 所以我们尝试uagent注入 UA注入&#xff1a; 没有url解码处理只识别原始空格&#xff…...

流式优先架构:彻底改变实时数据处理

近年来&#xff0c;随着现代组织的数据环境日趋复杂且高速流动&#xff0c;传统数据库系统已难以满足实时分析、物联网应用以及即时决策的需求。围绕批处理和静态数据模型设计的 RDBMS&#xff08;关系型数据库管理系统&#xff09;在架构层面缺乏实时处理能力&#xff0c;而流…...

WebSockets 在实时通信中的应用与优化

WebSockets 在实时通信中的应用与优化 1. 引言 在现代互联网应用中&#xff0c;实时通信 已成为许多场景的核心需求&#xff0c;如在线聊天、直播互动、在线游戏、实时数据推送等。而传统的 HTTP 轮询或长轮询方式往往伴随着 高延迟、资源浪费 等问题&#xff0c;使得开发者在…...

零基础教程:用 Docker + pgloader 将 MySQL 数据库迁移到 PostgreSQL

在日常开发中,可能会遇到从 MySQL 迁移到 PostgreSQL 的需求。你也许是: 正在准备从传统架构转向云原生;想使用 PostgreSQL 更强的事务与 JSON 支持;想统一团队数据库技术栈;纯粹为了尝试学习不同的数据库系统。别担心,无需手动写导出脚本,无需配置复杂工具,只需借助 D…...