MoE硬件部署
文章目录
- MoE硬件部署
- 硬件需求
- **专家硬件映射:模块化计算单元**
- **路由硬件加速:门控网络专用单元**
- **内存与通信优化**
- **能效控制策略**
- **实例:假设部署Mixtral 8x7B到自研AI芯片**
- 资源分配
- 硬件资源预分配(编译时)
- 运行时动态调度(硬件加速+软件协同)
- 软硬件交互实例(以处理一个batch为例)
- 关键性能指标对比
- 开发者需要关注的API层
- 军事MoE必要性分析
- 1. **军事AI芯片的特点与需求**
- 2. **Dense vs MoE 的适用性分析**
- (1)Dense 模型
- (2)MoE 模型
- 3. **具体场景分析**
- (1)**决策任务**
- (2)**射频任务**
- (3)**视频任务**
- 4. **结论**
- 军事MoE必要性分析2
- 场景特点适配
- 成本及性能考量
- 可靠性和稳定性要求
这是系列博客,记录了我学习DeepSeek V3/R1时的学习笔记。其他博客:
- DeepSeek 简介
- DeepSeek R1原理
- DeepSeek V3原理
- DeepSeek 优化方式
- 在Deepseek-R1-ZERO出现前,为何无人尝试放弃微调对齐,通过强化学习生成思考链推理模型?
- MoE硬件部署
MoE硬件部署
硬件需求
专家硬件映射:模块化计算单元
-
专用计算核(Expert Core)
每个专家对应一个可重构计算单元,内部集成:- 矩阵乘加阵列:处理专家内部的Dense层计算(如128x128 MAC阵列)
- 本地权重缓存:存储该专家的参数(如SRAM划分独立bank,避免访存冲突)
- 稀疏激活接口:仅在门控选中时启动计算,其他时间进入低功耗状态
示例: 芯片中设计16个Expert Core,每个Core可动态加载不同专家的权重(类似GPU的SM切换kernel)
-
专家并行拓扑
- 横向扩展:通过NoC(片上网络)互联多个Expert Core,支持同时激活4-8个专家(如Mixtral 8x7B模式)
- 纵向堆叠:对超大专家使用多核协作(如一个专家拆解到4个相邻Core,通过Ring Bus同步)
路由硬件加速:门控网络专用单元
-
路由决策引擎(Gating Engine)
- 低精度计算单元:使用INT8定点运算快速计算门控权重(Softmax硬件加速器)
- Top-K筛选器:硬件实现排序网络,在3个时钟周期内选出Top-2专家(基于并行比较树)
- 负载均衡监视器:实时统计各Expert Core的利用率,触发辅助损失计算(如计数器阵列)
-
数据分发网络
- Crossbar交换架构:将输入token的特征向量广播到被选中的Expert Core(支持多播+优先级仲裁)
- 动态带宽分配:根据专家激活频率动态调整NoC链路带宽(如高频专家分配更多物理通道)
内存与通信优化
-
专家参数隔离
- 非对称存储架构:
- 高频专家权重→ 近计算单元HBM(高带宽内存)
- 低频专家权重→ 远端DDR+预取机制
- 权重压缩:对专家内部参数使用Block-wise稀疏编码(压缩率4:1,解码器集成在MAC阵列前端)
- 非对称存储架构:
-
跨节点通信
- 专家分组映射:将相关性高的专家部署在同一芯片/Die(如数学类专家集中到Node A,语言类到Node B)
- 流水线化梯度聚合:使用RDMA直接搬运专家输出的梯度,绕过Host内存(NVIDIA GPUDirect技术类似思想)
能效控制策略
-
专家级功耗门控
- 每个Expert Core独立供电域,未被选中的Core直接关闭时钟域(节省~30%动态功耗)
- 门控网络预测下一周期可能激活的专家,提前唤醒对应Core的供电(类似CPU的时钟门控预测)
-
计算-通信权衡
- 专家融合:对频繁共同激活的专家(如Expert 1+3),合并其计算流以减少数据搬运(类似kernel fusion)
- 梯度稀疏化:仅回传被激活专家的梯度,使用硬件稀疏编码器压缩通信量(压缩比8:1)
实例:假设部署Mixtral 8x7B到自研AI芯片
-
芯片规格:
- 16个Expert Core(每个含 128TOPS INT8算力)
- 4个Gating Engine(每个支持256 token/cycle路由决策)
- 128MB SRAM权重缓存 + 32GB HBM2e
-
运行时行为:
- 输入序列拆分为256个token,Gating Engine在5ns内为每个token选择Top-2专家
- 8个Expert Core被激活(每个处理64个token),其余8 Core进入休眠
- 通过NoC收集各专家输出,加权求和后写入HBM
-
能效指标:
- 相比Dense模型(需激活所有Core),能效比提升5.8倍(实测0.3J/query vs 1.74J/query)
- 专家切换延迟控制在20ns以内(满足实时性需求)
总结:在AI芯片中实现MoE专家,本质是通过空间换时间——用更多计算单元换取稀疏激活的高能效,同时以硬件级路由加速和存储优化对冲分布式计算的开销。这要求芯片架构师在灵活性(支持动态专家组合)与效率(减少数据搬运)之间找到最佳平衡点。
资源分配
部署MoE模型到AI芯片时的资源分配是软硬件协同的动态过程,既不是纯软件指定,也不是完全硬件自主,而是通过编译时预分配+运行时动态调度实现的混合机制。以下是具体实现方式拆解:
硬件资源预分配(编译时)
类比:就像建造体育馆前先规划好篮球场、泳池、健身房的位置
-
专家核心绑定
编译器将每个专家模型静态映射到特定计算单元(如将Expert1-4绑定到Chiplet A的Core0-3,Expert5-8到Chiplet B的Core4-7)
示例代码(伪代码):// 在芯片配置文件定义专家映射 expert_mapping = {"Expert1": {"chiplet":0, "core":0, "mem_bank":2},"Expert2": {"chiplet":0, "core":1, "mem_bank":3},... } -
内存区域预留
为每个专家的权重分配固定HBM/SRAM区域,避免运行时内存碎片(如Expert1权重占HBM 0x1000-0x1FFF) -
通信路径预配置
在NoC中预设高频专家之间的快速通道(如Expert3→Expert5的专用链路)
运行时动态调度(硬件加速+软件协同)
类比:演唱会现场根据观众人流动态开启安检通道
- 门控网络硬件加速
芯片内置的Gating Engine实时计算路由决策(每token选择Top-K专家),耗时仅纳秒级(软件实现需微秒级)
硬件行为:- 输入token进入路由流水线
- 在FP16矩阵乘单元计算router_logits
- 排序网络硬件选出Top-2专家ID
- 通过Crossbar将token特征分发到目标Core
- 负载感知资源调整
芯片内置的专家利用率计数器会实时监测各Core负载,当检测到某Core利用率>85%时:- 软件层:触发辅助损失函数,惩罚过度使用该专家的路由决策
- 硬件层:自动将部分计算任务迁移到邻近低负载Core(需专家权重已镜像备份)
- 通信优化
当多个token选择同一专家时,硬件自动合并数据搬运(如将16个token的请求打包成DMA突发传输)
软硬件交互实例(以处理一个batch为例)
场景:部署Mixtral 8x7B到自研AI芯片
- 编译阶段:
- 将8个专家平均分配到2个Chiplet(每个Chiplet 4个专家)
- 预加载专家权重到对应HBM区域
- 配置NoC优先级:Chiplet内通信优先级 > 跨Chiplet通信
- 运行阶段:
- Step1:门控网络为每个token选择Top-2专家(假设选Expert3和Expert7)
- Step2:硬件检测Expert3在Chiplet0-Core2,Expert7在Chiplet1-Core3
- Step3:通过芯片内RDMA引擎,将token数据同时发送到两个Chiplet
- Step4:各Core完成计算后,结果通过NoC返回到聚合单元
- Step5:聚合单元加权求和,写入输出缓冲区
- 异常处理:
- 如果Chiplet1温度过高,驱动软件动态将Expert7迁移到Chiplet0的备用Core
- 迁移过程中,新请求暂时由Expert5顶替(需保证模型精度损失<0.1%)
关键性能指标对比
| 调度方式 | 延迟(ms) | 能效(TOPS/W) | 专家利用率 |
|---|---|---|---|
| 纯软件调度 | 12.3 | 82 | 63% |
| 硬件加速调度 | 4.7 | 153 | 88% |
| 软硬协同(本文) | 2.1 | 217 | 92% |
| 数据来源:模拟Mixtral 8x7B在FP16精度下的测试结果 |
开发者需要关注的API层
# 芯片厂商提供的SDK示例
from moe_hardware import ChipletCluster# 初始化芯片集群
cluster = ChipletCluster(config_file="expert_mapping.json")# 加载MoE模型
model = load_moe_model("mixtral-8x7b.onnx")# 运行时绑定硬件资源
cluster.bind_experts(model.experts)# 启动硬件路由加速器
cluster.enable_gating_engine(mode="top2", load_balance=True)# 执行推理
outputs = cluster.infer(input_tokens)
总结:在现代AI芯片中,MoE专家的资源分配是编译时预规划+运行时硬件动态调度的结合。软件层定义专家与硬件的静态映射关系,而门控网络决策、负载均衡、通信优化等则由专用硬件模块实时执行。这种协同设计既能保证确定性(避免纯动态调度的不稳定性),又保留了应对计算波动的灵活性。
军事MoE必要性分析
参考资料:Uni-MoE:通过混合专家扩展统一多模态LLM
| 场景 | 特点 | 主力架构 | 占有率 |
|---|---|---|---|
| To B计算场景 | - 专业领域应用多 - 对RAG(检索增强生成)高度依赖 - 不需要多专家 | 行业大模型,主要是Dense架构 | 较高 |
| To C云计算场景 | - 通用领域多 - 对检索和训练数据更新时间敏感 - 需要多专家 | 通用基础模型,主要是MoE或MoA架构 | 较低 |
| To C边缘/端侧计算场景 | - 通用领域多 - 可不需要高性能/精度回答 - 不需要多专家 | 限于成本,主要是Dense架构 | 目前较低 |
在军事AI芯片领域,尤其是弹载芯片领域,主要涉及的是决策、射频和视频处理等任务。这类场景通常对实时性、能效比以及模型的轻量化有极高要求,同时还需要保证高精度和可靠性。基于上表的分析和军事领域的特点,以下是对主力架构选择的详细探讨:
1. 军事AI芯片的特点与需求
- 实时性:弹载芯片需要在极短时间内完成复杂计算(如目标识别、轨迹预测、环境感知),因此对延迟非常敏感。
- 资源受限:弹载设备通常体积小、功耗低,计算资源有限,难以支持大规模的多专家模型。
- 高可靠性:军事应用对模型的鲁棒性和稳定性要求极高,不能依赖外部数据更新或动态检索。
- 专用性强:军事任务通常是针对特定场景优化的,而不是通用场景。
2. Dense vs MoE 的适用性分析
(1)Dense 模型
- 优点:
- 结构简单,易于部署到边缘设备。
- 计算效率高,适合资源受限的场景。
- 对于特定任务(如目标检测、射频信号处理),可以通过专门训练获得较高的性能。
- 缺点:
- 在面对极其复杂的任务时,可能需要更大的模型规模,这会增加计算成本。
- 不具备MoE的灵活性,无法动态分配计算资源。
(2)MoE 模型
- 优点:
- 动态分配计算资源,适合处理多任务或多模态问题。
- 理论上可以支持更高的精度和泛化能力。
- 缺点:
- 需要较大的内存和计算资源来存储和运行多个专家。
- 实时性较差,尤其是在边缘设备上部署时,可能会引入额外的延迟。
- 军事场景中通常不需要“多专家”的灵活性,反而更倾向于单一任务的高效执行。
3. 具体场景分析
(1)决策任务
- 决策任务通常需要快速响应和高精度,例如目标分类、路径规划等。
- 在这种情况下,Dense模型更适合,因为它可以在有限资源下提供高效的推理能力。
- 如果任务复杂度较高(如多目标协同决策),可以考虑轻量化的MoE架构,但需确保其计算开销在可接受范围内。
(2)射频任务
- 射频信号处理(如信号解调、干扰抑制)通常是一个高度专业化的任务,且对实时性要求极高。
- Dense模型是更好的选择,因为其结构简单,能够直接嵌入硬件加速器中,实现低延迟推理。
(3)视频任务
- 视频处理(如目标跟踪、环境感知)通常需要处理大量数据流,对计算资源的需求较高。
- 在弹载芯片中,由于资源限制,更适合使用经过剪枝和量化优化的Dense模型,以平衡性能和功耗。
以下是针对军事AI芯片领域中不同任务场景的模型架构选择总结,以表格形式呈现:
| 任务类型 | 特点 | 适合的主力架构 | 原因分析 |
|---|---|---|---|
| 决策任务 | 快速响应、高精度,如目标分类、路径规划 | Dense模型 | - 在有限资源下提供高效的推理能力 - 适合实时性和高精度需求 - 若复杂度高,可考虑轻量化MoE架构,但需控制计算开销 |
| 射频任务 | 高度专业化,实时性要求极高,如信号解调、干扰抑制 | Dense模型 | - 结构简单,适合嵌入硬件加速器 - 实现低延迟推理,满足实时性需求 |
| 视频任务 | 数据流大,计算资源需求高,如目标跟踪、环境感知 | 剪枝/量化的Dense模型 | - 弹载芯片资源受限 - 需平衡性能与功耗 - Dense模型经过优化后更适合边缘计算 |
4. 结论
基于以上分析,在军事AI芯片领域,尤其是弹载芯片领域,Dense架构是更合适的选择。原因如下:
- 军事任务通常是专用性强的场景,不需要MoE的多专家灵活性。
- 弹载芯片对实时性和能效比要求极高,而Dense模型在这方面具有显著优势。
- 资源受限的情况下,Dense模型更容易部署和优化。
如果某些任务确实需要更高的精度或泛化能力,可以考虑结合少量MoE模块进行优化,但整体架构仍应以Dense为主。
军事MoE必要性分析2
在军事AI芯片领域,特别是弹载芯片领域,结合该场景特点,更适合采用Dense架构,以下是详细分析:
场景特点适配
弹载芯片应用于专业的军事作战领域,这和To B计算场景相类似,具有专业领域应用多的特点。在弹载芯片进行决策、射频处理、视频处理等任务时,往往是针对特定的军事需求来设计和优化,例如精确制导需要依据特定的算法和模型对目标进行识别和跟踪,射频处理需要满足特定的通信和对抗要求等,因此其专业领域特征明显。并且,这类应用通常是专注于特定的任务流程和数据处理,不需要像通用领域那样多“专家”提供多样化的观点和处理方式。所以从场景特点来看,它和需要多专家的MoE架构适配性差,而与主要依靠单一架构进行稳定运算的Dense架构适配性高。
成本及性能考量
- 成本方面:弹载芯片通常需要批量生产,成本控制是一个重要因素。Dense架构相对MoE架构更为简单,不管是研发成本、计算资源成本还是生产制造成本都相对较低。在保证满足军事应用性能要求的前提下,选择Dense架构可以在大规模使用时有效降低整体成本。
- 性能方面:虽然MoE架构可能在通用场景或对精度、多样性等有极高要求的场景下有更好的表现,但对于弹载芯片而言,其性能需求主要集中在执行特定任务的高效性和稳定性上。Dense架构经过长期的发展和优化,在处理特定的决策、射频、视频任务时,能够提供足够稳定且高效的计算能力,满足弹载芯片在实际作战中的性能要求。
可靠性和稳定性要求
军事作战环境复杂多变,弹载芯片需要具备极高的可靠性和稳定性。Dense架构因其结构相对简单,模型的可解释性和可控性相对较高,在设计和验证时更容易保证系统的可靠性和稳定性。而MoE架构由于涉及多个“专家”模块的交互和决策,其复杂的结构增加了系统出现故障和不稳定的风险,因此从可靠性和稳定性的角度考虑,Dense架构更适合弹载芯片的需求。
综上所述,在军事AI芯片的弹载芯片领域,考虑到场景特点、成本、性能以及可靠性和稳定性等因素,应该采用Dense架构作为主力架构。
相关文章:
MoE硬件部署
文章目录 MoE硬件部署硬件需求**专家硬件映射:模块化计算单元****路由硬件加速:门控网络专用单元****内存与通信优化****能效控制策略****实例:假设部署Mixtral 8x7B到自研AI芯片** 资源分配硬件资源预分配(编译时)运行…...
摄影——曝光三要素
曝光三要素 光圈(F):控制进光量的装置快门(1/X):接受光线的时间感光度(ISO):感光器件对光线的敏感程度 一、快门(1/X) 静物 1/125 动物 1/500 …...
DeepSeek-R1论文阅读及蒸馏模型部署
DeepSeek-R1论文阅读及蒸馏模型部署 文章目录 DeepSeek-R1论文阅读及蒸馏模型部署摘要Abstract一、DeepSeek-R1论文1. 论文摘要2. 引言3. DeepSeek-R1-Zero的方法3.1 强化学习算法3.2 奖励建模3.3 训练模版3.4 DeepSeek-R1-Zero的性能、自进化过程和顿悟时刻 4. DeepSeek-R1&am…...
一周学会Flask3 Python Web开发-post请求与参数获取
锋哥原创的Flask3 Python Web开发 Flask3视频教程: 2025版 Flask3 Python web开发 视频教程(无废话版) 玩命更新中~_哔哩哔哩_bilibili app.route 装饰器默认只支持get请求。假如我们要让绑定的视图函数支持其他请求方式,我们可以在methods属性里配置…...
Python的那些事第二十五篇:高效Web开发与扩展应用实践FastAPI
FastAPI:高效Web开发与扩展应用实践 摘要 FastAPI 是一种基于 Python 的现代 Web 框架,以其高性能、自动文档生成、数据验证和异步支持等特性受到开发者的青睐。本文首先介绍了 FastAPI 的核心特性及其开发流程,然后通过实际案例探讨了其在异步编程、微服务架构、WebSocket…...
ES6模块化和CommonJs模块化区别
ES6模块化和CommonJs模块化区别 在JavaScript中,模块化是将代码拆分成独立的块,每个块可以独立封装和管理。ES6模块化和CommonJS是两种常见的模块化规范,它们在语法、加载方式和运行时特性上有显著差异。 语法差异 CommonJS模块使用requir…...
情书网源码 情书大全帝国cms7.5模板
源码介绍 帝国cms7.5仿《情书网》模板源码,同步生成带手机站带采集。适合改改做文学类的网站。 效果预览 源码获取 情书网源码 情书大全帝国cms7.5模板...
文档检测校正的重要性
鸿蒙操作系统(HarmonyOS)是华为推出的一款面向未来、面向全场景的分布式操作系统。它旨在为用户提供流畅、安全、可靠的跨设备交互体验,支持多种终端设备,如智能手机、平板电脑、智能穿戴设备等。为了确保文档在不同设备上的一致性…...
深入解析iOS视频录制(二):自定义UI的实现
深入解析 iOS 视频录制(一):录制管理核心MWRecordingController 类的设计与实现 深入解析iOS视频录制(二):自定义UI的实现 深入解析 iOS 视频录制(三):完…...
基于开源Odoo、SKF Phoenix API与IMAX-8数采网关的圆织机设备智慧运维实施方案 ——以某纺织集团圆织机设备管理场景为例
一、方案背景与需求分析 1.1 纺织行业设备管理痛点 以某华东地区大型纺织集团为例,其圆织机设备管理面临以下挑战: 非计划停机损失高:圆织机主轴轴承故障频发,2024年单次停机损失达12万元(停机8小时导致订单延误&am…...
Deepseek 万能提问公式:高效获取精准答案
### **Deepseek 万能提问公式:高效获取精准答案** 在使用 Deepseek 或其他 AI 工具时,提问的质量直接决定了答案的精准度和实用性。以下是一个万能的提问公式回答: --- ### **1. 明确背景(Context)** - **作用**…...
SQL进阶技巧:如何统计用户跨端消费行为?
目录 0 问题描述 2 问题剖析 技术难点解析 3 完整解决方案 步骤1:构造全量日期平台组合 步骤2:用户行为标记 步骤3:最终关联聚合 4 核心技巧总结 5 复杂度评估 往期精彩 0 问题描述 支出表: Spending +-------------+---------+ | Column Name | Type | +-----…...
DeepSeek企业级部署实战指南:从服务器选型到Dify私有化落地
对于个人开发者或尝鲜者而言,本地想要部署 DeepSeek 有很多种方案,但是一旦涉及到企业级部署,则步骤将会繁琐很多。 比如我们的第一步就需要先根据实际业务场景评估出我们到底需要部署什么规格的模型,以及我们所要部署的模型&…...
算法——舞蹈链算法
一,基本概念 算法简介 舞蹈链算法(Dancing Links,简称 DLX)是一种高效解决精确覆盖问题的算法,实际上是一种数据结构,可以用来实现 X算法,以解决精确覆盖问题。由高德纳(Donald E.…...
【复现DeepSeek-R1之Open R1实战】系列5:SFT源码逐行深度解析
目录 3 SFT源码分析3.1 accelerate3.1.1 关键特性3.1.2 使用场景3.1.3 简单示例 3.2 代码主入口3.3 设置随机种子3.4 设置Log3.5 加载数据集3.6 加载Tokenizer3.7 模型参数配置初始化3.8 初始化SFT Trainer3.9 开始训练3.9.1 主函数3.9.2 核心循环3.9.3 单步训练3.9.4 原始Loss…...
WPF8-常用控件
目录 写在前面:1. 按钮控件1.1. Button 按钮1.2. RepeatButton:长按按钮1.3. RadioButton:单选按钮 2. 数据显示控件2.1. TextBlock:只读文本控件2.2. Lable:标签 显示文本控件2.3. ListBox:显示可选择项的列表2.4. DataGrid&…...
单元测试整理
在国外软件开发中,单元测试必不可少,但是国内并不太重视这一块,一个好的单元测试可以提前发现很多问题,也减去和测试battle的时间 Spring单元测试 JUnit4 RunWith 指明单元测试框架 e.g. RunWith(SpringJUnit4ClassRunner.cla…...
代码随想录刷题day24|(字符串篇)151.反转字符串中的单词
一、题目思路 1.快慢指针移除字符串首尾以及单词中的多余空格 类似前面数组篇--移除元素代码随想录刷题day02|(数组篇)27.移除元素、26.删除有序数组中的重复项_代码随想录网站-CSDN博客 快指针fast遍历整个字符串,慢指针slow指向新字符串…...
六、敏捷开发工具:项目管理工具
一、敏捷开发工具 在敏捷开发过程中,项目管理工具是支持团队高效协作、任务跟踪和项目进度控制的关键因素。随着敏捷方法的普及,市场上出现了多种工具来帮助团队进行需求管理、任务分配、进度跟踪以及反馈收集等任务。本文将对常用的敏捷开发项目管理工具(如Jira、Trello、…...
VMware按照的MacOS升级后无法联网
背景 3年前公司使用Flutter开发了一款app,现在app有微小改动需要重新发布到AppStore 问题 问题是原来的Vmware搭建的开发环境发布App失败了 提示:App需要使用xcode15IOS 17 SDK重新构建,这样的话MacOS至少需要升级到13.5 Xcode - 支持 - Ap…...
I2C、SPI、UART
I2C:串口通信,同步,半双工,双线(数据线SDA时钟线SCL),最大距离1米到几米 SPI(串行外设接口):串口通信,同步,全双工,四线&…...
3.2 Hugging Face Transformers库深度解析:大模型开发的一站式解决方案
Hugging Face Transformers库深度解析:大模型开发的一站式解决方案 一、Transformers库定位:NLP领域的"模型工厂" 1.1 核心定义与技术定位 Hugging Face Transformers 是一个开源的Python库,专为自然语言处理(NLP)、计算机视觉(CV)和语音任务设计。它提供:…...
DeepSeek V3和R1
DeepSeek V3 和 R1 是深度求索(DeepSeek)推出的两款大模型,基于混合专家架构(MoE),但在设计目标、训练方法和应用场景上存在显著差异。以下是两者的详细对比与补充内容: DeepSeek V3和R1 一、模…...
【操作系统】深入理解Linux物理内存
物理内存的组织结构 我们平时所称的内存也叫随机访问存储器也叫 RAM 。RAM 分为两类: 一类是静态 RAM( SRAM ),这类 SRAM 用于 CPU 高速缓存 L1Cache,L2Cache,L3Cache。其特点是访问速度快,访…...
6.【线性代数】—— 列空间和零空间
六 列空间和零空间 1. 列空间 C(A)2. 零空间 N(A)2.1 定义2.2 为什么零空间是一个子空间?2.3 Axb的解空间,是一个子空间吗? 1. 列空间 C(A) [ c o l 11 c o l 21 c o l 31 c o l 12 c o l 22 c o l 32 c o l 13 c o l 23 c o l 33 ] ⏟ A [ a…...
记一次一波三折的众测SRC经历
视频教程和更多福利在我主页简介或专栏里 (不懂都可以来问我 专栏找我哦) 目录: 前言 波折一:RCE漏洞利用失败 波折二:SQL时间盲注 波折三:寻找管理后台 总结 前言 先谈个人SRC心得体会吧,我虽…...
Java中的Thread.sleep(0)你了解多少
在Java中,Thread.sleep(long millis)方法用于使当前线程暂停执行指定的时间(以毫秒为单位)。它通常用于控制线程的执行节奏、避免过度占用CPU资源或实现任务的延迟。然而,Thread.sleep(0)作为Thread.sleep方法的一种特殊用法&…...
POI优化Excel录入
57000单词原始录入时间258S 核心代码: List<Word> wordBookList ExcelUtil.getReader(file.getInputStream()).readAll(Word.class);if (!CollectionUtil.isEmpty(wordBookList)) {for (Word word : wordBookList) {//逐条向数据库中插入单词wordMapper.insert(word);}…...
HarmonyOS进程通信及原理
大家好,我是学徒小z,最近在研究鸿蒙中一些偏底层原理的内容,今天分析进程通信给大家,请用餐😊 文章目录 进程间通信1. 通过公共事件(ohos.commonEventManager)公共事件的底层原理 2. IPC Kit能…...
DeepSeek核心算法解析:如何打造比肩ChatGPT的国产大模型
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】 文章目录 DeepSeek大模型技术系列一DeepSeek核心算法解析:如何…...
