DeepSeek-V3 论文解读:大语言模型领域的创新先锋与性能强者
论文链接
:DeepSeek-V3 Technical Report
目录
- 一、引言
- 二、模型架构:创新驱动性能提升
- (一)基本架构(Basic Architecture)
- (二)多令牌预测(Multi-Token Prediction)
- 三、基础设施:全方位优化训练生态
- (一)强大计算集群支撑
- (二)高效训练框架赋能
- (三)FP8 训练革新精度管理
- (四)推理部署优化用户体验
- (五)硬件设计建议引领未来
- 四、预训练(Post-Training):夯实模型能力根基
- (一)数据构建智慧
- (二)超参数精细调校
- (三)长上下文扩展突破
- (四)评估体系全面
- (五)消融研究洞察
- 五、后训练(Post-Training):提升模型应用适配性
- (一)监督微调定制数据
- (二)强化学习多元激励
- (三)评估多维验证
- (四)讨论
- 六、研究总结与展望
一、引言
在大语言模型(LLMs)的激烈竞争赛道上,开源与闭源模型均在飞速发展,不断突破性能极限。DeepSeek-V3的诞生,犹如一颗璀璨新星,照亮了开源模型的前行之路。它拥有高达 671B 的总参数,在每次处理令牌时激活 37B 参数,以强大的姿态跻身前沿模型行列。其训练成本效益显著,仅需 2.788M H800 GPU 小时的总训练时长,折合 557.6 万美元,却在多个关键领域展现出惊人的实力,成为当前开源模型中的佼佼者,有力地推动了自然语言处理技术的发展进程,缩小了开源与闭源模型之间的差距,为全球研究人员和开发者带来了新的希望与机遇。
二、模型架构:创新驱动性能提升
(一)基本架构(Basic Architecture)
DeepSeek-V3 立足于 Transformer 框架,深度融合 MLA 与 DeepSeekMoE 架构。MLA 机制在注意力处理环节大显身手,通过对注意力键值的低秩联合压缩,在不影响性能的前提下,大幅削减推理时的 KV 缓存。其核心在于巧妙地将输入 h t h_t ht 经 W D K V W^{DKV} WDKV 投影为压缩潜在向量 c t K V c_{t}^{KV} ctKV,再通过特定的上投影矩阵生成键值,仅需缓存少量关键向量,有效缓解了内存压力。在查询处理方面,同样的低秩压缩思路得以应用,降低训练激活内存,为大规模模型训练提供了可行性。
DeepSeekMoE 架构在 Feed-Forward Networks 中发挥关键作用,其精细的专家设置和共享专家机制提升了计算效率。在计算 FFN 输出时,综合考虑共享专家和路由专家的贡献,通过独特的门控机制 g i , t g_{i,t} gi,t 筛选激活的路由专家,确保计算资源的合理分配。尤为突出的是其无辅助损失的负载平衡策略,通过动态调整专家的偏差项 b i b_i bi,依据训练过程中的专家负载情况实时优化路由决策,避免了传统辅助损失方法可能带来的性能损耗,同时辅以序列级辅助损失防止单序列内的失衡,保障了模型训练的稳定性与高效性。
(二)多令牌预测(Multi-Token Prediction)
多令牌预测(MTP)是 DeepSeek-V3 的一大创新亮点。它打破了传统的单令牌预测模式,通过顺序预测多个未来令牌,为模型训练注入新活力。MTP 模块紧密协作,共享嵌入层和输出头与主模型互联互通,在每个预测深度,Transformer 块基于前一深度表示和嵌入令牌进行精细处理,经投影和标准化后输入,由共享输出头计算预测概率。这种结构设计不仅强化了训练信号,提升数据利用效率,更使模型在推理时具备推测解码能力,加速文本生成过程,在实际应用中展现出巨大潜力,如在长文本生成和复杂问题回答场景下,能够更连贯、准确地生成响应。
三、基础设施:全方位优化训练生态
(一)强大计算集群支撑
依托配备 2048 个 NVIDIA H800 GPU 的高性能集群,DeepSeek-V3 的训练拥有坚实的硬件基础。节点内 NVLink 和 NVSwitch 确保 GPU 间高速互联,实现数据快速传输,而节点间的 InfiniBand 则为大规模分布式训练提供了稳定、高效的通信链路,保障了模型训练的大规模并行计算需求,使得海量数据和复杂模型参数能够在集群中高效流转,为模型训练的加速和扩展奠定了基础。
(二)高效训练框架赋能
HAI-LLM 训练框架是 DeepSeek-V3 高效训练的核心引擎。其独特的 16 路流水线并行(PP)、64 路专家并行(EP)和 ZeRO-1 数据并行(DP)组合,充分发挥了硬件资源的潜力。DualPipe 算法作为关键创新点,重新定义了流水线并行的规则。通过精细划分块组件并巧妙重组,实现了计算与通信的深度重叠,有效消除了流水线气泡,大幅提升了训练效率。在跨节点全对全通信方面,定制的高效内核与集群拓扑和 MoE 门控算法协同工作,依据 IB 和 NVLink 带宽差异优化令牌调度,借助 warp 专业化和动态调整技术,充分利用硬件资源,确保通信流畅,同时避免了对计算资源的过度占用。在内存优化上,通过重新计算 RMSNorm 和 MLA 上投影、在 CPU 存储指数移动平均、共享 MTP 模块参数等策略,在不牺牲性能的前提下,显著降低内存开销,使得模型训练能够在有限的硬件资源下高效运行。
(三)FP8 训练革新精度管理
FP8 训练框架为 DeepSeek-V3 带来了精度与效率的双重突破。在混合精度设置中,核心 GEMM 运算采用 FP8 精度,充分发挥其计算速度优势,同时对嵌入、输出头、门控和归一化等敏感或低成本操作保留高 precision,确保训练稳定性。为克服 FP8 格式动态范围有限的问题,创新性的细粒度量化策略应运而生。针对激活和权重分别采用 1x128 瓷砖和 128x128 块的分组缩放方式,结合精确的 FP32 累加和高效的 dequantization 机制,有效降低量化误差。在存储和通信环节,对优化器状态、激活等采用 BF16 或定制格式压缩,进一步减少内存和带宽占用,在大规模模型训练中实现了精度与资源利用的良好平衡,为模型训练的加速和扩展提供了有力支持。
(四)推理部署优化用户体验
在推理与部署阶段,DeepSeek-V3 针对 H800 集群架构精心设计策略。预填充阶段,4 节点 32 GPU 的部署单元整合多种并行技术,通过冗余专家部署和微批次处理优化负载平衡与吞吐量,确保高效处理输入文本。解码阶段,40 节点 320 GPU 的配置适应不同的计算需求,借助 IB 直连和 IBGDA 技术实现低延迟通信,同时探索动态冗余和微批次处理策略,提升解码效率,在在线服务场景中能够快速响应用户请求,提供流畅的交互体验,满足实际应用的高性能需求。
(五)硬件设计建议引领未来
基于模型训练和推理的实践经验,DeepSeek-V3 为硬件设计提供了前瞻性建议。在通信硬件方面,鉴于当前 SM 用于通信的效率瓶颈,倡导开发专用的 GPU 协处理器或网络协处理器,统一 IB 和 NVLink 网络接口,简化编程模型,提升通信效率,释放 SM 计算资源,为大规模模型训练和推理提供更强大的通信支持。在计算硬件领域,建议提高 Tensor Core 中 FP8 GEMM 累加精度,以满足高精度计算需求;支持细粒度量化、在线量化和转置 GEMM 操作,减少数据移动开销,提升计算效率,推动硬件技术与模型算法的协同发展,为下一代大语言模型的创新奠定基础。
四、预训练(Post-Training):夯实模型能力根基
(一)数据构建智慧
DeepSeek-V3 的预训练数据构建独具匠心。在语料库优化上,大幅提升数学和编程样本比例,拓宽多语言覆盖范围,增强数据的多样性和专业性。文档打包与 PSM 框架、FIM 策略紧密结合,在保持数据完整性的同时,提升模型对文本结构的理解和生成能力。Byte-level BPE 分词器的应用及对特殊令牌的处理,有效优化了多语言压缩效率,减轻了令牌边界偏差,为模型训练提供了高质量的输入数据,使得模型能够更好地学习语言的语义和语法知识,提升语言理解和生成能力。
(二)超参数精细调校
模型超参数的精心设置构建了 DeepSeek-V3 的基本架构。61 层 Transformer、7168 隐藏维度及特定的注意力头和压缩维度配置,确定了模型的表达能力和计算复杂度。训练超参数的设定则保障了训练过程的稳定性和有效性。AdamW 优化器参数、学习率的动态调度、梯度裁剪规范以及批次大小的灵活调整,使模型在大规模训练中能够快速收敛,避免过拟合,逐步提升性能,适应不同阶段的训练需求,确保模型在复杂的训练过程中稳健成长。
(三)长上下文扩展突破
长上下文扩展技术是 DeepSeek-V3 的又一核心竞争力。借助 YaRN 算法,分阶段将上下文窗口从 4K 稳健拓展至 128K,使模型在处理长文本时游刃有余。在扩展过程中,对不同阶段的序列长度、批次大小和学习率的精细调整,确保模型在适应长上下文的同时保持性能稳定。在诸如文档摘要、长篇故事生成和复杂文本分析等任务中,模型能够有效利用长上下文信息,生成更准确、连贯的输出,显著提升了模型在实际应用中的实用性和灵活性。
(四)评估体系全面
全面的评估体系涵盖了多学科多选、语言理解与推理、问答、阅读、代码、数学等多个领域的丰富基准测试。在与 DeepSeek-V2-Base、Qwen2.5 72B Base、LLaMA-3.1 405B Base 等先进模型的对比中,DeepSeek-V3 脱颖而出。尤其在数学和代码任务上,其优势显著,成为开源模型领域的新标杆。例如在 HumanEval 和 MATH 等基准测试中,其高得分彰显了强大的编程和数学推理能力,为模型在实际工程和学术研究中的应用提供了有力的性能背书。
(五)消融研究洞察
消融研究深入剖析了 MTP 和无辅助损失负载平衡策略的关键作用。MTP 策略在多个基准测试中持续提升性能,证明了其对训练信号强化和模型预测能力优化的有效性。无辅助损失负载平衡策略相较于传统方法,在多数测试中表现更优,凸显其在平衡专家负载和提升模型整体性能方面的优势,为模型架构设计提供了宝贵的实践经验和理论依据,指引着未来模型优化的方向。
五、后训练(Post-Training):提升模型应用适配性
(一)监督微调定制数据
监督微调阶段的数据集精心策划,涵盖多个领域,满足不同应用场景需求。推理数据源自 DeepSeek-R1 模型,并经多轮处理优化,融合了 R1 的准确性和简洁性优势。非推理数据由 DeepSeek-V2.5 生成并人工审核,确保数据质量。在微调过程中,合理的学习率调度和样本掩码策略保障了模型在不遗忘预训练知识的基础上,有效适应特定任务,提升了模型在实际应用中的性能表现,使其能够更好地满足用户在不同领域的需求。
(二)强化学习多元激励
强化学习环节采用双轨奖励模型。规则奖励模型在数学和编程等确定性问题中发挥关键作用,依据明确规则提供可靠反馈,确保模型输出的准确性。基于模型的奖励模型则应对自由形式答案问题,通过训练学习复杂的语义匹配和偏好判断,增强模型的泛化能力。GRPO 算法的应用,结合多领域提示,有效优化了模型策略,使其在不同任务中表现更优,在对话生成、创意写作和问题回答等场景下,能够生成更符合人类偏好的高质量文本。核心公式如下:
J G R P O ( θ ) = E [ q ∼ P ( Q ) , { o i } i = 1 G ∼ π θ o l d ( O ∣ q ) ] 1 G ∑ i = 1 G ( m i n ( π θ ( o i ∣ q ) π θ o l d ( o i ∣ q ) A i , c l i p ( π θ ( o i ∣ q ) π θ o l d ( o i ∣ q ) , 1 − ε , 1 + ε ) A i ) − β D K L ( π θ ∥ π r e f ) ) \begin{aligned} \mathcal{J}_{GRPO }(\theta) & =\mathbb{E}\left[q \sim P(Q),\left\{o_{i}\right\}_{i=1}^{G} \sim \pi_{\theta_{old }}(O | q)\right] \\ & \frac{1}{G} \sum_{i=1}^{G}\left(min \left(\frac{\pi_{\theta}\left(o_{i} | q\right)}{\pi_{\theta_{old }}\left(o_{i} | q\right)} A_{i}, clip\left(\frac{\pi_{\theta}\left(o_{i} | q\right)}{\pi_{\theta_{old }}\left(o_{i} | q\right)}, 1-\varepsilon, 1+\varepsilon\right) A_{i}\right)-\beta \mathbb{D}_{K L}\left(\pi_{\theta} \| \pi_{r e f}\right)\right) \end{aligned} JGRPO(θ)=E[q∼P(Q),{oi}i=1G∼πθold(O∣q)]G1i=1∑G(min(πθold(oi∣q)πθ(oi∣q)Ai,clip(πθold(oi∣q)πθ(oi∣q),1−ε,1+ε)Ai)−βDKL(πθ∥πref))
D K L ( π θ ∥ π r e f ) = π r e f ( o i ∣ q ) π θ ( o i ∣ q ) − l o g π r e f ( o i ∣ q ) π θ ( o i ∣ q ) − 1 \mathbb{D}_{K L}\left(\pi_{\theta} \| \pi_{r e f}\right)=\frac{\pi_{r e f}\left(o_{i} | q\right)}{\pi_{\theta}\left(o_{i} | q\right)}-log \frac{\pi_{r e f}\left(o_{i} | q\right)}{\pi_{\theta}\left(o_{i} | q\right)}-1 DKL(πθ∥πref)=πθ(oi∣q)πref(oi∣q)−logπθ(oi∣q)πref(oi∣q)−1
A i = r i − m e a n ( { r 1 , r 2 , ⋯ , r G } ) s t d ( { r 1 , r 2 , ⋯ , r G } ) A_{i}=\frac{r_{i}-mean\left(\left\{r_{1}, r_{2}, \cdots, r_{G}\right\}\right)}{std\left(\left\{r_{1}, r_{2}, \cdots, r_{G}\right\}\right)} Ai=std({r1,r2,⋯,rG})ri−mean({r1,r2,⋯,rG})
(三)评估多维验证
后训练评估涵盖了广泛的基准测试,包括 IFEval、FRAMES、LongBench v2 等新兴测试,全面检验了模型在不同任务和场景下的能力。与 DeepSeek-V2、Qwen2.5、LLaMA-3.1、Claude-Sonnet-3.5、GPT-4o 等强基线模型的对比,充分展示了 DeepSeek-V3 的优势。在代码编程、数学竞赛、知识问答等领域的出色表现,证明了其后训练阶段的有效性,使其能够在复杂的实际应用中提供高质量的服务,满足用户的多样化需求。
(四)讨论
后训练讨论环节深入探讨了蒸馏、自奖励和 MTP 评估等前沿话题。从 DeepSeek-R1 系列模型中成功蒸馏推理能力,为模型性能提升提供了新途径。自奖励机制的研究为模型自主学习和优化提供了新思路,有望在未来减少对外部奖励的依赖。MTP 评估的持续探索进一步揭示了其在模型训练和推理中的潜在价值,为模型优化提供了更多维度的参考,推动了大语言模型技术的持续创新和发展。
六、研究总结与展望
DeepSeek-V3 在大语言模型领域取得了令人瞩目的成就,其创新的架构设计、高效的训练方法和卓越的性能表现,为开源模型发展树立了新的典范。然而,技术的进步永无止境,在复杂任务处理、语义理解深度和模型可解释性等方面,仍存在提升空间。未来研究可聚焦于架构创新的深化、训练算法的优化和数据质量的提升,进一步挖掘模型潜力,推动大语言模型技术在智能客服、智能写作、教育辅助等众多领域的广泛应用,为人工智能的发展注入新的活力,创造更大的价值。
相关文章:

DeepSeek-V3 论文解读:大语言模型领域的创新先锋与性能强者
论文链接:DeepSeek-V3 Technical Report 目录 一、引言二、模型架构:创新驱动性能提升(一)基本架构(Basic Architecture)(二)多令牌预测(Multi-Token Prediction…...

配置#include “nlohmann/json.hpp“,用于处理json文件
#include “nlohmann/json.hpp” // 需要安装 nlohmann/json.hpp 头文件 using json = nlohmann::json; 下载链接:https://github.com/nlohmann/json/tree/develop 1.下载并解压:首先,需要从nlohmann/json的GitHub仓库下载源代码,并解压得到的文件。 地址: nlohmann/json…...

索引失效的14种常见场景
在 MySQL 中,索引有时可能会失效,导致查询性能下降。以下是常见的 14 种场景,在这些场景下,索引可能会失效 1. 使用 OR 连接多个条件 场景: 当查询中包含 OR 时,如果 OR 连接的多个条件中有一个没有使用索引࿰…...

解决com.kingbase8.util.KSQLException: This _connection has been closed.
问题描述 一个消息管理系统,系统采用kingbase8数据库,数据库采用单体模式,后台应用也采用springboot单体模式。系统正式上线后,出现几个JDBC响应的异常信息: com.kingbase8.util.KSQLException: An I/O error occurred while sending to the backend.java.net.SocketTime…...

openAI官方prompt技巧(二)
1. 赋予 ChatGPT 角色 为 ChatGPT 指定一个角色,让其从特定的身份或视角回答问题。这有助于生成针对特定受众或场景的定制化回答。 例如: 你是一名数据分析师,负责我们的市场营销团队。请总结上个季度的营销活动表现,并强调与未…...

【非 root 用户下全局使用静态编译的 FFmpeg】
在非 root 用户下全局使用静态编译的 FFmpeg,可以按照以下方法操作: 1. 下载静态编译的 FFmpeg 如果你还没有下载静态编译的 FFmpeg,可以从官方网站获取: wget https://johnvansickle.com/ffmpeg/releases/ffmpeg-release-amd6…...

【嵌入式 Linux 音视频+ AI 实战项目】瑞芯微 Rockchip 系列 RK3588-基于深度学习的人脸门禁+ IPC 智能安防监控系统
前言 本文主要介绍我最近开发的一个个人实战项目,“基于深度学习的人脸门禁 IPC 智能安防监控系统”,全程满帧流畅运行。这个项目我目前全网搜了一圈,还没发现有相关类型的开源项目。这个项目只要稍微改进下,就可以变成市面上目前…...

前端布局与交互实现技巧
前端布局与交互实现技巧 1. 保持盒子在中间位置 在网页设计中,经常需要将某个元素居中显示。以下是一种常见的实现方式: HTML 结构 <!doctype html> <html lang"en"> <head><meta charset"UTF-8"><m…...

idea 找不到或者无法加载主类
idea项目,之前一直是正常运行的,放假了之后再回来就遇到启动不了的问题。 WebApplication这个类右键运行的时候,也提示找不到主类。 对于这种之前运行没有问题,突然出问题的项目。 我的点是没有改动代码和数据的情况下项目就跑不起…...

Flink 调用海豚调度器 SQL 脚本实现1份SQL流批一体化的方案和可运行的代码实例
目录 一、流批一体化概述 二、Flink 与海豚调度器结合实现流批一体化的好处 2.1 代码复用性增强 2.2 开发和维护成本降低 2.3 数据一致性保证 2.4 提高系统的灵活性和可扩展性 三、实现思路步骤 3.1 环境准备 3.2 编写 SQL 脚本并上传到海豚调度器 3.3 实现资源下载功…...

ES6 Map 数据结构是用总结
1. Map 基本概念 Map 是 ES6 提供的新的数据结构,它类似于对象,但是"键"的范围不限于字符串,各种类型的值(包括对象)都可以当作键。Map 也可以跟踪键值对的原始插入顺序。 1.1 基本用法 // 创建一个空Map…...

go结构体详解
结构体简介 Golang 中没有“类”的概念,Golang 中的结构体和其他语言中的类有点相似。和其他面向对象语言中的类相比,Golang 中的结构体具有更高的扩展性和灵活性。 Golang 中的基础数据类型可以表示一些事物的基本属性,但是当我们想表达一…...

机器学习-关于线性回归的表示方式和矩阵的基本运算规则
最近在学习机器学习的过程中,发现关于线性回归的表示和矩阵的运算容易费解,而且随着学习的深入容易搞混,因此特意做了一些研究,并且记录下来和大家分享。 一、线性模型有哪些表示方式? 器学习中,线性模型…...

kafka 3.5.0 raft协议安装
前言 最近做项目,需要使用kafka进行通信,且只能使用kafka,笔者没有测试集群,就自己搭建了kafka集群,实际上笔者在很早之前就搭建了,因为当时还是zookeeper(简称ZK)注册元数据&#…...

后台管理系统网页开发
CSS样式代码 /* 后台管理系统样式文件 */ #container{ width:100%; height:100%; /* background-color:antiquewhite;*/ display:flex;} /* 左侧导航区域:宽度300px*/ .left{ width:300px; height: 100%; background-color:#203453; display:flex; flex-direction:column; jus…...

使用一个大语言模型对另一个大语言模型进行“调教”
使用一个大语言模型对另一个大语言模型进行“调教”(通常称为微调或适配),是一种常见的技术手段,用于让目标模型更好地适应特定的任务、领域或风格。以下是基于搜索结果整理的详细步骤和方法: 1.准备工作 安装必要的…...

golang使用sqlite3,开启wal模式,并发读写
因为sqlite是基于文件的,所以默认情况下,sqlite是不支持并发读写的,即写操作会阻塞其他操作,同时sqlite也很容易就产生死锁。 但是作为一个使用广泛的离线数据库,从sqlite3.7.0版本开始(SQLite Release 3.…...

如何利用maven更优雅的打包
最近在客户现场部署项目,有两套环境,无法连接互联网,两套环境之间也是完全隔离,于是问题就来了,每次都要远程到公司电脑改完代码,打包,通过网盘(如果没有会员,上传下载慢…...

音频进阶学习十二——Z变换一(Z变换、收敛域、性质与定理)
文章目录 前言一、Z变换1.Z变换的作用2.Z变换公式3.Z的状态表示1) r 1 r1 r12) 0 < r < 1 0<r<1 0<r<13) r > 1 r>1 r>1 4.关于Z的解释 二、收敛域1.收敛域的定义2.收敛域的表示方式3.ROC的分析1)当 …...

cursor指令工具
Cursor 工具使用指南与实例 工具概览 Cursor 提供了一系列强大的工具来帮助开发者提高工作效率。本指南将通过具体实例来展示这些工具的使用方法。 1. 目录文件操作 1.1 查看目录内容 (list_dir) 使用 list_dir 命令可以查看指定目录下的文件结构: 示例: list_dir log…...

MySQL 主从读写分离实现方案(一)—MariaDB MaxScale实现mysql8读写分离
一:MaxScale 是干什么的?? MaxScale是maridb开发的一个mysql数据中间件,其配置简单,能够实现读写分离,并且可以根据主从状态实现写库的自动切换,对多个从服务器能实现负载均衡。 二:MaxScale …...

阿里云 | DeepSeek人工智能大模型安装部署
ModelScope是阿里云人工智能大模型开源社区 ModelScope网络链接地址 https://www.modelscope.cn DeepSeek模型库网络链接地址 https://www.modelscope.cn/organization/deepseek-ai 如上所示,在阿里云人工智能大模型开源社区ModelScope中,使用阿里云…...

LLAMA-Factory安装教程(解决报错cannot allocate memory in static TLS block的问题)
步骤一: 下载基础镜像 # 配置docker DNS vi /etc/docker/daemon.json # daemon.json文件中 { "insecure-registries": ["https://swr.cn-east-317.qdrgznjszx.com"], "registry-mirrors": ["https://docker.mirrors.ustc.edu.c…...

STM32 CUBE Can调试
STM32 CUBE Can调试 1、CAN配置2、时钟配置3、手动添加4、回调函数5、启动函数和发送函数6、使用方法(采用消息队列来做缓存)7、数据不多在发送函数中获取空邮箱发送,否则循环等待空邮箱 1、CAN配置 2、时钟配置 3、手动添加 需要注意的是STM32CUBE配置的代码需要再…...

MySQL数据存储- 索引组织表
索引组织表 前言数据存储堆表索引组织表 二级索引二级索引的性能评估🔹为什么 idx_name 的性能开销最大?🔹 为什么 idx_last_modify_date 更新频繁会影响性能?分析二级索引性能表格为什么主键应该“紧凑且顺序”?二级索…...

基于STM32设计的仓库环境监测与预警系统
目录 项目开发背景设计实现的功能项目硬件模块组成设计思路系统功能总结使用的模块的技术详情介绍总结 1. 项目开发背景 随着工业化和现代化的进程,尤其是在制造业、食品业、医药业等行业,仓库环境的监控和管理成为了至关重要的一环。尤其是在存储易腐…...

VSCode便捷开发
一、常用插件 Vue 3 Snippets、Vetur、Vue - Official 二、常用开发者工具 三、Vue中使用Element-UI 安装步骤: 1、在VSCode的终端执行如下指令: npm i element-ui -S 2、在main.js中全局引入: import Vue from vue; import ElementUI from …...

理解 Maven 的 pom.xml 文件
pom.xml 是 Maven 项目的核心文件,它是项目构建、依赖管理、插件配置和项目元数据的主要地方。通过 pom.xml 文件,Maven 知道如何构建项目、下载依赖库、执行测试等任务。每个 Maven 项目都必须包含一个 pom.xml 文件。本文将详细讲解 pom.xml 文件的结构…...

docker数据持久化的意义
Docker 数据持久化是指在 Docker 容器中保存的数据不会因为容器的停止、删除或重启而丢失。Docker 容器本身是临时性的,默认情况下,容器内的文件系统是临时的,容器停止或删除后,其中的数据也会随之丢失。为了确保重要数据…...

opentelemetry-collector 配置elasticsearch
一、修改otelcol-config.yaml receivers:otlp:protocols:grpc:endpoint: 0.0.0.0:4317http:endpoint: 0.0.0.0:4318 exporters:debug:verbosity: detailedotlp/jaeger: # Jaeger supports OTLP directlyendpoint: 192.168.31.161:4317tls:insecure: trueotlphttp/prometheus: …...