当前位置: 首页 > article >正文

【第三十六周】论文阅读02

文章目录摘要Abstract一、《Nougat: Neural Optical Understanding for Academic Documents》1. 摘要2. 介绍3. 相关工作4. 模型4.1 设置4.2 数据增强5. 数据集5.1 页面拆分5.2 真实标注伪影6. 核心贡献总结二、《A Survey of Token Compression for Efficient Multimodal Large Language Models》1. 压缩方法2. 多模态大语言模型2.1 纯文本Token压缩2.1 视觉token压缩三、《Towards Efficient Multimodal Large Language Models: A Survey on Token Compression》1. 多模态大型语言模型2. Token压缩3. 在哪里压缩令牌3.1 视觉编码器中的令牌压缩3.2 投影器中的令牌压缩3.3 大语言模型中的令牌压缩3.4 多模块中的token压缩总结摘要《Nougat Neural Optical Understanding for Academic Documents》核心聚焦学术文档的结构化信息提取旨在解决学术文档数字化过程中的信息提取效率与准确性问题。《A Survey of Token Compression for Efficient Multimodal Large Language Models》是首篇系统综述多模态大模型MLLMs长上下文令牌压缩的研究。按模态将压缩方法分为图像、视频、音频三类再依据核心机制细分为变换、相似性、注意力、查询导向四种全面梳理现有成果。《Towards Efficient Multimodal Large Language Models: A Survey on Token Compression》将压缩方法划分为视觉编码器、投影器、LLM 骨干网及混合压缩四类。深入分析了文本引导与纯视觉压缩、令牌合并与丢弃等压缩方式。AbstractThis week, I studied three papers:《Nougat: Neural Optical Understanding for Academic Documents》 focuses on structured information extraction from academic documents, aiming to improve the efficiency and accuracy of information extraction during the digitization of academic papers.《A Survey of Token Compression for Efficient Multimodal Large Language Models》is the first systematic survey on long-context token compression for Multimodal Large Language Models (MLLMs). It categorizes compression methods into image, video, and audio according to modality, and further classifies them into transformation-based, similarity-based, attention-based, and query-guided approaches based on their core mechanisms, providing a comprehensive review of existing work.《Towards Efficient Multimodal Large Language Models: A Survey on Token Compression》divides compression techniques into four categories: visual encoder, projector, LLM backbone, and hybrid compression. It also provides in-depth analysis of token compression schemes such as text-guided vs. pure visual compression, token merging, and token dropping.一、《Nougat: Neural Optical Understanding for Academic Documents》1. 摘要Nougat (学术文档的神经光学理解)一个基于视觉Transformer的端到端模型执行光学字符识别( Optical Character RecognitionOCR )任务的视觉转换器模型将学术文档PDF难以提取结构化和语义信息的页面图像转换为结构化的标记语言。通过弥合人类可读文档和机器可读文本之间的鸿沟提高数字时代科学知识的可访问性。2. 介绍存储在文本或发表在科技期刊上中的信息很难提取成任何其他格式。现有的光学字符识别( Optical Character RecognitionOCR )引擎无法理解图像中的单个字符和单词之间的关系。 对于数学表达式字符的相对位置上标和下标至关重要。将学术研究论文转化为机器可读的文本也使得科学作为一个整体具有可获取性和可检索性。本文的主要贡献是·发布了一个能够将PDF转换为轻量级标记语言的预训练模型。·我们引入了一个管道来创建数据集用于将PDFs与源代码配对·我们的方法只依赖于页面的图像允许访问扫描的论文和书籍。3. 相关工作1数学表达式领域全卷积模型被各种RNN解码器模型成功地用于手写和打印公式。缺点只关注已经被裁剪好的、单独的公式图片。无法从文档中自动提取公式进行识别。2视觉文档理解VDU领域文本布局。通过使用Transformer架构对文本和布局信息进行联合建模来学习提取信息。LayoutLM模型使用掩膜版面预测任务来捕获不同文档元素之间的空间关系。注“掩膜版面预测”模型需要根据可见的文本以及所有文本的位置信息包括被掩盖词的位置来预测被掩盖的词是什么。GROBID能从PDF里解析出作者、标题、参考文献这些元数据“重点在书目数据”输出为结构化的XML文件。pdf2htmlEX能把PDF“翻译”成HTML网页尽可能保留原来的排版样式。无论是学术界的前沿方法LayoutLM还是工业界的实用工具GROBID和pdf2htmlEX在面对数学表达式的语义信息时都无能为力。4. 模型该架构是编码器-解码器Transformer架构整个这套流程基于Donut架构的实现。编码器Swin Transformer负责理解图像。它把输入的文档图像切分成许多固定大小的 patch图像块然后通过多层注意力机制提取出图像的视觉特征最终输出一组特征向量为图像的“语义摘要”。解码器负责写文本。解码器接收编码器输出的特征向量以自回归的方式一个接一个地生成token利用自注意力和交叉注意力分别关注输入序列和编码器输出的不同部分。注12自注意力关注“输入序列”。作用确保文本的连贯性和语法正确性。交叉注意力关注“编码器输出”。作用将文本生成与视觉信息对齐确保输入和输出内容是一致的。Donut Docment understanding transformer架构为基础。输入只有图像模型不需要任何与OCR相关的输入或模块文本被网络隐性识别纯视觉文本生成视觉编码器对输入的图片裁剪或填充确保所有输入的图片拥有相同的维度再从图像中学习所有必要信息。注隐性识别它是在整个端到端训练过程中自己学会了把图像中的文字笔画映射到对应的文本 token。理解是整体发生的而不是分步拆解的。4.1 设置模型的权重参数可以由预训练得到。transformer编码器的最大序列长度与处理的内容的数据量相关当数据量大时可以使用较长的文本序列。解码器mBART是一个专门为多语言和生成任务设计的Transformer解码器。mBART优势1更适合生成任务BART系列的预训练目标包括“去噪自编码”——即把打乱的文本恢复原状。这让它特别擅长生成连贯、准确的文本序列。210层解码器层提供了足够的容量来建模复杂的文本结构。在推理时使用 贪婪解码 逐令牌生成文本。贪婪解码在生成每个令牌时模型会计算所有可能令牌的概率分布然后选择概率最高的那一个作为输出。然后把这个令牌加入已生成的序列继续生成下一个。在训练时为了确保训练稳定性采用了较小的初始学习率并逐步衰减4.2 数据增强数据增强来提高泛化性往往是有益的。我们需要使用一些变换来模拟扫描文档的不完美和可变性。每个变换腐蚀、膨胀、高斯噪声…都有一个固定的概率被应用到给定的图像中。这些变换在Albumentations 库中实现。同时还通过随机替换令牌的方式对真实文本添加扰动。这样可以显著地减少崩溃成一个重复的循环。下图为对每次变化效果的概览随即替换令牌的方式目的不是“看模型能否还原正确的输出”而是故意给模型制造“错误”的上下文让它学会在推理时即使遇到错误也能保持正确生成而不是崩溃。5. 数据集主要训练集和测试集arXiv首先使用LaTeXML7对源文件进行处理并将其转换为HTML5文件后将其转换成轻量级标记语言。源码提供了最完整、最精确的语义信息尤其是数学公式可以生成高质量的“图像-标记语言”配对数据。它是模型学会理解复杂学术文档的主力。说明最终输出的轻量级标记语言“去除了噪音、统一了格式、保留了核心语义”的标准版LaTeX/文本。源文件编译后生成PDF文件。arXiv数据处理过程如下预训练辅助数据集PMCPDF文件XML文件方程和表被存储为图像。而遇到方程和表时模型只能看到图像但是看不到图片的内容当它试图根据这个图像去生成正确的LaTeX代码时它得到的“正确答案”却是[IMAGE]这样的占位符。IDLOCR文本且不包括文本格式。仅用于预训练用于教模型基础的扫描文档的OCR。为什么只能限制在预训练阶段因为正式训练阶段要求高质量、高精度的配对数据图像 ↔ 正确的标记语言。总结这些数据集的作用就是让模型能够准确地从“非结构化的文档图像”中理解并输出“结构化的文本”。5.1 页面拆分根据PDF 文件中每一页之间的分隔位置对标记文件进行拆分。编译过程中尽可能准确地将源码文本划分到每个 PDF 页面。为了实现准确拆分从 PDF 文件中直接提取的文本内容与LaTeX 源码中实际会显示出来的文字内容需要去除 LaTeX 命令、注释等只保留正文和公式中的文字部分进行匹配。PDF中的图形和表格可能与它们在源代码中的位置不对应。在LaTeX源码中图形和表格通常用\begin{figure}…\end{figure}或\begin{table}…\end{table}编写LaTeX编译时会根据排版算法图片表格自动浮动到页面顶部、底部或下一页以优化版面美观导致PDF与源码中位置不符。解决方法先移除再重插1识别并移除使用pdffigures2工具专门从PDF中提取图形和表格的开源工具识别出PDF中哪些区域是图形/表格并暂时从源码文本中移除。这样做的目的是防止浮动元素干扰页面分割。2匹配字幕将pdffigures2识别出的图表字幕论文中图形和表格配有的简短的文字说明与从XML文件PMC数据或LaTeXML处理结果中提取的字幕进行字符串模糊匹配Levenshtein距离确定哪个图表对应源码中的哪段代码。3重插在源码被成功分割到各个页面后再把属于该页的图表的标记语言表示添加到该页文本的末尾。文本匹配的优化Unicode转LaTeX从PDF提取的文本中数学符号可能已经变成Unicode字符而源码中的数学符号是用LaTeX命令写的比如\alpha、\beta、\neq。为了让两者能够更好地匹配需要用pylatexenc库把PDF文本中的Unicode数学符号转回对应的LaTeX命令。比如把α转成\alpha这样“α”和\alpha才能被认为是同一个东西。5.2 真实标注伪影数据瑕疵的来源来自 LaTeXML 预处理的伪影虽然 LaTeXML 的目的是标准化 LaTeX 源码但它本身也可能引入新的问题。后果模型可能会学习去“生成”一些在图像中并不存在的编号或符号。来自页面分割算法的错误页面分割算法基于 SVM 和模糊匹配并非完美。在某些情况下它可能会把前一页末尾的文本错误地划归到当前页或者把当前页末尾的单词切断比如只保留了半个单词。控制格式的命令字符可能会被错误地保留、丢失或与前后页混淆导致生成的标记语言与图像内容不符。来自 PMC 数据源的内在缺陷公式问题PMC 论文中的行内公式在 XML 中常常被简单地写成 Unicode 字符或斜体文本而行间公式display math和表格则经常被直接存为图片。后果当把 PMC 的 XML 解析成标记语言时这些公式和表格就会丢失或被忽略导致该页的“正确答案”中缺失了本该由模型从图像中识别出来的核心内容。实验结果证明训练的数据不完美训练出来的模型依然有效。6. 核心贡献总结1提出Nougat模型一个端到端可训练的编码器-解码器Transformer用于将文档页面图像转换为标记语言。2不依赖OCR仅凭页面图像即可识别文本和数学公式适用于数字PDF和扫描文档。3自动化数据集构建展示了如何无监督地从arXiv等来源生成“图像-源代码”配对数据。二、《A Survey of Token Compression for Efficient Multimodal Large Language Models》1. 压缩方法模态驱动机制驱动双维度压缩机制模态驱动图像以相邻块纹理与颜色相近的原理解决了固有的空间冗余视频以连续帧通常公用一个背景解决时空冗余问题音频处理无效音频段类似背景噪声无声音频解决时间冗余机制驱动基于变换的方法 (Transformation-based)总结通过 pooling池化、convolution卷积 这类数学变换直接把Token的形态改变比如把一堆Token“压缩打包”成一个。优点能很好地保留原始信息的结构特征比如图片的空间布局。缺点压缩的比例不够灵活通常只能压缩到固定的倍数比如只能压缩到原来的1/4。基于相似度的方法 (Similarity-based)总结把长得像的Token合并或分组。就像KNN算法那样把相似的邻居聚成一类。优点处理起来比较灵活可以选择在模型的哪里进行压缩。缺点如果合并得太狠可能会丢失细节信息而且容易忽略掉原始的空间结构。基于注意力的方法 (Attention-based)——这也是你刚才问到的总结利用注意力矩阵的稀疏性把那些注意力分数低即不相关的Token移除。优点动态剪枝只保留跟当前任务最相关的Token可解释性强因为是根据注意力分数来的。缺点计算注意力分数这个操作本身可能跟现有的加速库如FlashAttention不兼容影响实际的加速效果。基于查询的方法 (Query-based)总结利用外部的查询来引导压缩只保留跟问题相关的Token。优点压缩后的信息非常精炼且相关特别适合处理视频等复杂任务。缺点不适合多轮对话。因为换了一个问题相关的Token就变了需要重新压缩效率不高。2. 多模态大语言模型通用多模态大语言模型( MLLM )框架由3个核心组件组成结构的图如下所示( 1 )模式特异性编码器( g )( 2 )投影仪模块( P )( 3 )预训练大语言模型( LLM )。token序列 多模态tokens 文本tokens。多模态token通常构成了序列token的大部分。2.1 纯文本Token压缩提示压缩纯文本的大型语言模型中发展起来的Token压缩技术主要方法1上下文压缩与向量化如 AutoCompressor 将上下文压缩为摘要向量ICAE 将上下文编码到离散的记忆槽中。2Token/句子级别的精简如 SentenceVAE 用单个Token代表一个句子Selective Context 利用自信息量指标剔除信息量低的Token。3基于指令与查询的压缩LLMLingua 系列通过指令微调进行分层Token剪枝并引入LongLLMLingua通过语义密度排序来缓解位置衰减问题。QUITO 和 AdaComp 等方法则利用注意力分数或查询复杂度来筛选与查询相关的信息。4推理加速KV缓存压缩针对推理效率方法如 H2O 和 StreamingLLM 通过保留关键Token如“注意力汇聚点”来剪枝KV缓存从而加速生成。2.1 视觉token压缩视觉Transformer中为了解决空间冗余问题而开创的Token压缩技术主要技术路径包括1基于注意力分数的动态剪枝如 DynamicViT 和 EViT通过量化Token与分类标记的相关性动态地修剪掉低显著性的Token。说明“低显著性的token”通常就是指与特定锚点在分类任务中通常是 [CLS] token关联最小即注意力分数最低的那些token。[CLS] token 对其他所有token的注意力分数可以被解释为每个图像块对最终分类决策的“贡献度”或“显著性”。2基于相似度的Token合并如 ToMe利用相似度度量将语义相似的Token合并从而减少数量。3学习紧凑的Token集如 TokenLearner通过学习到的空间注意力机制从原始Token中生成一个更小的、信息丰富的Token集合。4知识蒸馏如 DeiT使用轻量级的“学生”头从压缩后的Token子集中预测类别标签。三、《Towards Efficient Multimodal Large Language Models: A Survey on Token Compression》1. 多模态大型语言模型多模态大语言模型工作流程1模式特异性编码器Visual Encoder—— 将像素变成特征输入一张由像素组成的原始图片。输出一个视觉特征序列。图像被分割每一块一个向量每个向量代表对应区域的原始视觉信息。2投影器模块Projector—— 将视觉特征对齐到语言世界输入上一步产生视觉特征向量。这些向量是在“视觉模型的空间”里。处理投影器的主要任务不是“转换二进制”而是“维度对齐”和“语义对齐”让视觉模型内向量被语言模型理解。输出视觉Token数量与视觉特征向量个数相同。3大语言模型LLM—— 统一理解与生成输入一个拼接起来的混合序列比如[文本Token1, 文本Token2, …, 视觉Token1, 视觉Token2, …, 视觉Token256]输出根据任务模型可以输出文本也可以输出其他模态的信息。2. Token压缩随着序列长度n的增加注意力机制中的二次复杂度项n2d迅速增长导致了令人望而却步的计算开销。二次计算复杂度自然推动了token压缩技术的发展其目的是在保持必要的视觉和文本语义的同时减少MLLM中的总上下文长度从而在不显著降低模型性能的情况下实现计算效率。当视觉token超过文本token则选择压缩视觉token常见视觉token产生的冗余有两种( 1 )视觉内冗余。视觉内容内在地包含着冗余信息。例如图像中相邻块纹理与颜色相近的视频中连续帧通常共用一个背景音频中背景噪声无声音频( 2 )跨模态冗余。关注的是视觉内容与当前文本任务的相关性。任务可能只和视觉内容中某一部分相关如一张多动物图片中的某一个动物。此时通过利用文本信息可以选择性地只保留那些与特定任务需求相关的视觉标记。3. 在哪里压缩令牌按压缩位置分类视觉编码器内压缩分为内部压缩如注意力机制和外部压缩如图像特征后处理。投影器内压缩包括基于变换、查询和重要性驱动的压缩方法。LLM内压缩分为预填充阶段和解码阶段压缩。多模块协同压缩如跨模块协作和多阶段渐进压缩。3.1 视觉编码器中的令牌压缩1编码器内部压缩在视觉编码器内部进行令牌丢弃或合并利用相似性、注意力或启发式评分选择重要令牌包括视觉令牌丢弃、合并、混合策略及多尺度压缩。2编码器外部压缩在视觉编码器输出后、投影器前进行压缩。这里的压缩通过度量视觉-视觉或视觉-文本表征之间的语义相关性来减少视觉标记的数量分为纯视觉压缩与文本引导压缩讨论注意力偏置问题、极端压缩及令牌恢复机制。①纯视觉压缩仅基于视觉特征本身的相关性进行压缩不依赖任何文本输入。补充1VisionZip中的“重要性估计”和“代表性约束”重要性估计给每个视觉令牌打分判断它包含的信息量有多大。得分高的令牌被认为是“重要”的需要优先保留。代表性约束在挑选令牌时不仅要求每个令牌本身重要还要求整个被选中的令牌集合能够覆盖图像中不同的内容避免只挑出同一类信息。2LLaVA-STF中的“跨层特征拼接”不同层蕴含不同特征浅层更关注细节特征比如边缘、颜色、纹理。深层更关注语义特征比如这个区域是什么物体狗、猫、车。深层特征经过了高度抽象可能会丢失一些细节信息。跨层特征拼接的含义LLaVA-STF不再只取最后一层的输出作为视觉特征而是从多个不同层比如第12层、第18层、第24层中提取出对应的视觉令牌。然后它把这些来自不同层的令牌特征向量拼接起来。假设每一层输出的特征维度是768维它从三个层各取一个向量拼在一起就变成了一个2304维的向量。这个新拼接出来的向量既包含了来自浅层的细节纹理信息也包含了来自深层的语义类别信息。3“低通滤波”图片可以分为低频和高频低频为图片中平缓的地方如大面积色块背景等高平则更为剧烈如边缘噪点等为什么可以用作压缩①高频细节虽然重要但通常占用大量的数据量而且很多高频信息比如不同背景纹理的细微差别对于模型理解图像的核心语义这是什么物体可能是冗余的。②通过低通滤波Fourier-VLM可以有效去除这些高频冗余得到一个更“平滑”、更“干净”的视觉表示。然后再将这个处理过的信号从频域映射回原始的令牌空间此时的令牌数量可能已经减少或者每个令牌的信息密度变得更高。方法存在的问题依赖CLS令牌的注意力分数选择重要令牌但是这种注意力机制存在偏置倾向于选择显著区域而忽略全局上下文HoloV提出解决方案通过引入全局视觉上下文平衡前景与背景令牌②文本引导压缩利用文本提示如用户问题提供的语义先验只保留与任务相关的视觉令牌3.2 投影器中的令牌压缩基于变换的压缩使用池化、像素重组、卷积等操作直接减少令牌数。基于查询的压缩通过可学习查询向量如Q-Former与视觉特征交互蒸馏出紧凑表示。基于注意力机制的压缩基于相似性、显著性或其他指标评估令牌重要性选择性保留或合并。3.3 大语言模型中的令牌压缩当用户输入一张图和一个问题模型需要先一次性处理所有输入的令牌包括文本指令和图像令牌生成第一轮推理所需的Key-Value缓存。这个阶段被称为预填充阶段。预填充阶段的压缩包括四种方法1基于重要性通过某种指标通常是注意力分数判断哪个视觉令牌对当前任务更重要只保留分数最高的那一部分。存在问题注意力偏置由于位置编码的影响排在序列后面的视觉令牌更容易获得高注意力分数这可能导致模型忽略了前面区域的重要信息。2可学习模块在模型中插入一些小型的、可训练的神经网络模块。通过训练学会判断哪些令牌重要、以及当前输入应该压缩到什么程度。3令牌合并多个语义相似的视觉令牌融合成一个新的令牌4融合通过交叉注意力机制让文本令牌主动去“检索”或“吸收”视觉信息。即查询为一组序列键值为一组序列根据查询对所有键值信息进行检索找到有效键值。3.4 多模块中的token压缩多模块token压缩方法本质上是结合单模块技术构建的应关注组件间协调的压缩并将其组织为一个多阶段过程以最大限度地提高整体效率和表示质量。两种新兴的设计范式1多模块协同压缩核心逻辑跨越边界利用后端LLM的信息来指导前端Encoder/Projector的压缩 。运作方式文本引导这是最典型的协同。利用用户的问题文本Token作为先验知识去“检索”或“吸收”视觉信息 。动态权重后端模型告诉前端哪些区域重要前端据此重新加权或丢弃令牌 。目的消除跨模态冗余确保保留的Token不仅包含视觉信息还必须与当前任务高度相关 。2多阶段渐进压缩核心逻辑采用由粗到精Coarse-to-Fine的策略层层递减 。运作方式Token在流水线的不同位置被重复筛选。例如先在视觉编码器端进行初步去重经过投影器后再在大语言模型LLM的预填充阶段进行二次精炼 。目的最大程度减轻长序列带来的计算负担特别是应对注意力机制的二次复杂度总结1《Nougat Neural Optical Understanding for Academic Documents》为学术文档处理提供了高效解决方案突破了传统 OCR 在公式、复杂排版场景下的局限。2《A Survey of Token Compression for Efficient Multimodal Large Language Models》填补了 MLLMs 令牌压缩领域的系统性分类空白揭示了不同模态冗余特性与压缩方法的适配关系。3《Towards Efficient Multimodal Large Language Models: A Survey on Token Compression》提供了实用的压缩策略弥补了现有研究在实际应用中的不足并提出任务与内容感知自适应压缩等方向。

相关文章:

【第三十六周】论文阅读02

文章目录摘要Abstract一、《Nougat: Neural Optical Understanding for Academic Documents》1. 摘要2. 介绍3. 相关工作4. 模型4.1 设置4.2 数据增强5. 数据集5.1 页面拆分5.2 真实标注伪影6. 核心贡献总结二、《A Survey of Token Compression for Efficient Multimodal Larg…...

从零开始写一个微信小程序:完整代码实战指南(入门篇)

引言 在移动互联网时代,微信小程序以其“即用即走”、开发成本低、流量获取易等优势,成为开发者必须掌握的技能之一。本文将带你从零开始,不讲废话,只写代码,完成你的第一个微信小程序。我们将从环境搭建开始&#xf…...

从命令行到认知时代:GitHub 指令使用与自动化工作流深度实践

前言在软件开发的历史中,很少有工具像Git这样深刻地改变了我们协作的方式,也很少有平台像GitHub这样,将代码托管变成了一个集成的社交化开发中心。对于许多开发者而言,与GitHub的交互长期处于一种“分裂”的状态:使用G…...

13.jmeter性能测试高并发及高频率弱压力及持续高并发

高并发同一时间有大量请求或用户访问系统,比如春运抢火车票,抢演唱会门票高并发测试是为了发现系统瓶颈,保证上线稳定,了解系统的最大承载量。同步定时器实现高并发同步定时器实现高并发可测试瞬间高负载,比如秒杀/抢购…...

双馈风电机组并网仿真建模:四机九节点系统中的虚拟惯量与下垂控制技术,超速减载与桨距角控制调频策...

双馈风电机组并网matlab/simulink仿真建模,四机两区域/三机九节点系统,虚拟惯量下垂控制/超速减载/桨距角控制调频,风储联合调频,低电压穿越故障等双馈风电机组并网后的动态特性直接影响电网稳定性。咱们直接上Simulink撸个三机九…...

永磁同步电机死区效应补偿策略研究仿真,该仿真利用已知的死区时间,直接将补偿时间补到三相占空比中...

永磁同步电机死区效应补偿策略研究仿真,该仿真利用已知的死区时间,直接将补偿时间补到三相占空比中,无需知道额外的参数。 采用参考电流判断电流的方向,避免传统根据实际电流判断方向在零电流箝位的误差影响。 该模型所有电机和控…...

光刻机十大核心卡脖子领域:用第一性原理,拆解中国芯片的破局之路

光刻机十大核心卡脖子领域:用第一性原理,拆解中国芯片的破局之路 作者:华夏之光永存 本篇不是民科,不是胡言乱语,光刻机并不难,难的是思维被锁死。等我有空,我会写一百篇落地文章,详…...

核心揭秘:epoll_wait 的数据到底从哪来?

一、 核心揭秘:epoll_wait 的数据到底从哪来? 很多初学者(甚至部分老手)都存在一个致命的认知误区:认为当网络事件发生时,Linux 内核会立刻去分析这个连接,临时拼凑出一个 epoll_event 结构体,然后塞给 epoll_wait。 错!大错特错! 根据笔记提炼,真实的底层流转机…...

导师推荐 8个一键生成论文工具:全领域适配,开题报告+学术论文+毕业论文高效写作测评

在学术研究日益数字化的今天,论文写作已成为高校师生和科研人员日常工作中不可回避的重要环节。然而,面对繁重的写作任务、复杂的文献检索流程以及不断升级的AIGC内容检测机制,许多学者仍深陷效率低下的困境。为了帮助用户更高效地选择适合自…...

windows操作系统上的Java版更新

如何安装 JDK 17 1. 下载 JDK 17 访问 Oracle JDK 17 下载页面 或使用开源的 Adoptium (Eclipse Temurin)。 选择与您操作系统匹配的安装包(Windows x64 MSI 或压缩包)。 2. 安装并配置环境变量 以 Windows 为例: 运行安装程序&#xff…...

用时光本重构工作时间管理:从个人规划到团队协同的全流程方案

矩阵日历 智能分析 团队协同,让时间管理更简单 管理大师杜拉克曾说:“不能管理时间,便什么也不能管理”,这句话道尽了时间管理对于工作的核心意义 —— 时间是世界上最短缺的资源,除非严加管理,否则就会…...

架构不是套娃:为什么简单的代码胜过无脑的层次

在软件开发中,我们常常被教导要“优化架构”、“抽象层次”、“面向未来”。于是,很多人养成了一个习惯:无论功能多简单,先搭几层抽象再说——接口、实现类、工厂、策略、服务层……文件夹层层嵌套,类名整整齐齐&#…...

基于EKF和UKF的电力系统动态状态估计方法验证与实现【有参考文献】(39节点系统为例)

【有参考文献】基于扩展(EKF)和无迹卡尔曼滤波(UKF)的电力系统动态状态估计 该程序对应文章《Power System Dynamic State Estimation Using Extended and Unscented Kalman Filters》,电力系统状态的准确估计对于提高电力系统的可靠性、弹性、安全性和稳定性具有重…...

编程入门指南:从概念到实践

1. 编程入门介绍在现代社会,编程已成为一项重要的技能。这是一门通过代码在机器上创造出动态世界的技术,对于许多人来说,它如同《黑客帝国》中的数字雨般神秘。然而,编程更像是一种特殊的写作艺术。就像作家通过文字创造故事一样&…...

VAE变分自编码器VAE Loss基础数学知识

一、基础数学知识1.1凸函数的定义下面我们要讲到生成模型。首先我们复习一些要用到的数学知识。第一个是凸函数的定义,因为不同教材对于凸函数的定义不同,为了避免混淆,这里我们讨论的是下凸函数,也就是函数曲线向下突出。下凸函数…...

各子群独立进化

【有参考文献】基于并行分布式差分算法的含需求响应家庭微网能量管理 该程序是《Demand Response of Residential Houses Equipped with PV-Battery Systems: An Application Study Using Evolutionary Algorithms》完全复现主要做的是一个家庭微网能量管理系统,考虑…...

LangChain/LangGraph/OpenAI核心概念+实战指南

LangChain/LangGraph/OpenAI核心概念深度拆解(含库关联+完整用法) 一、核心认知重构:从「封装层级」看透所有概念 先建立四层封装模型(这是理解所有概念的核心框架),同时明确各层级与langchain、langgraph、openai、langchain-openai的核心关联: 封装层级 核心目标 代…...

腾讯对OpenClaw技能数据的抓取行为,究竟是符合开源精神的本地镜像还是侵害开发者权益的恶意抄袭?

关于腾讯抓取OpenClaw技能数据这件事,最近在开发者圈子里讨论得挺多。乍一看,这似乎又是一个大厂与小开发者之间的经典矛盾,但仔细琢磨,会发现里面有些细节值得掰开谈谈。 先说说开源精神这件事。开源社区的核心,其实是…...

关于Lambda表达式

以Arrays.sort(intervals, (a, b) -> Integer.compare(a[0], b[0]));为例子 Arrays.sort方法要求第二个参数是Comparator<int[]>&#xff0c;编译器通过(a, b)得知参数类型Comparator<int[]>&#xff0c;会去找这个接口&#xff0c;然后下面只有一个抽象方法com…...

重置root密码重置

root密码也叫做root密码破解重启虚拟机/启动虚拟机&#xff0c;看到如下界面&#xff0c;快速将鼠标点进虚拟机通过上下箭头&#xff0c;选择第二个选项&#xff0c;然后安装屏幕下方的提示按“e”键进入下一个页面&#xff0c;将光标通过向上向下箭头移动到quiet单词后面&…...

三十七选择

主频&#xff08;CPU时钟频率&#xff09;指CPU中门电路的工作频率&#xff0c;它决定着CPU芯片内部数据传输与操作速度快慢。一般而言&#xff0c;主频越高&#xff0c;执行一条指令需要的时间越短MP3是有损压缩的数字音频分组交换也称为包交换。数据包包括头部和有效载荷。一…...

VLANeXt: VLA终极配方,12个维度从零构建高性能VLA-- 2026.2.20 -- 开源

0. 前言 看过非常多的VLA&#xff0c;但是对于其包含的结构和模块并不清晰&#xff0c;其中到底哪个对VLA性能影响最大也有待研究&#xff0c;所以来看看这篇。 论文页 项目页 article{wu2026vlanext,title{VLANeXt: Recipes for Building Strong VLA Models}, author{Xiao-…...

AI智能获客工具哪家强?这3款让你业绩飙升!

在当今数字化时代&#xff0c;AI智能获客工具对于企业的发展至关重要。它能帮助企业高效地找到潜在客户&#xff0c;提升业绩。下面为大家介绍三款颇具实力的AI智能获客工具。多客智能——AI自运转百倍获客体系上海超客多多智能科技有限公司推出的AI自运转百倍获客体系&#xf…...

基于形状的模板匹配,多模板匹配,最大变形匹配,max_deformation,动态链接库,C+...

基于形状的模板匹配&#xff0c;多模板匹配&#xff0c;最大变形匹配&#xff0c;max_deformation&#xff0c;动态链接库&#xff0c;C/C#&#xff0c;32/64位"啪&#xff01;" 螺丝刀重重摔在操作台上&#xff0c;车间主任老张盯着屏幕里歪斜的零件图像直挠头。流水…...

文档检索软件self searcher绿色版下载

兼具本地文件名查找和文件内容查找&#xff0c;相当于everythinganytxt searcher: 通过百度网盘分享的文件&#xff1a;Self-Sea… 链接:https://pan.baidu.com/s/159OrBfTmGO5xO59Fia6Xlg?pwd6sx3 复制这段内容打开「百度网盘APP 即可获取」...

光储直流微电网Simulink仿真模型——独立光伏系统能量管理及最大功率点跟踪

光储直流微电网simulink仿真模型 双向变换器 &#xff0c;独立光伏系统能量管理&#xff0c;最大功率点跟踪mppt 在传统的独立光伏发电系统中&#xff0c;蓄电池直接与直流母线相连接&#xff0c;其充放电电流不能得到有效的控制&#xff0c;当负载突变时&#xff0c;可能导致蓄…...

iNaturalist开放海量自然数据与计算机视觉挑战

iNaturalist开放海量自然数据&#xff0c;推动计算机视觉研究 iNaturalist应用程序允许全球用户记录和识别野生动植物。如今&#xff0c;由某机构云服务支持的人工智能技术正越来越多地参与到对这些观察数据的分类工作中。该项目从一个硕士项目发展成为一个拥有150万科学家和自…...

维科技术2025年亏损收窄至1.02亿!钠电池爬坡期后的业绩拐点已现?

维科技术2025年亏损收窄至1.02亿&#xff01;钠电池爬坡期后的业绩拐点已现&#xff1f; 2025年&#xff0c;维科技术交出"减亏成绩单"&#xff0c;全年净亏损1.02亿元&#xff0c;较上年同期收窄64.5%&#xff0c;营收14.18亿元虽同比下滑7.2%&#xff0c;但第四季…...

技能提升路线程序,输入目标岗位,倒推所需技能,规划学习顺,少走弯路,快速进阶。

&#x1f680; 智能技能提升路线规划系统&#x1f4c1; 项目结构skill_roadmap/├── README.md # 项目说明文档├── main.py # 主程序入口├── config/│ └── skills_database.py # 技能数据库配置├── core/│ ├── skill_tree.py # 技能树构建模块│ ├── dec…...

2026年降AI率工具哪个好?亲测这3款真的有效

2026年降AI率工具哪个好&#xff1f;亲测这3款真的有效 上个月帮室友改论文&#xff0c;他用DeepSeek写了一篇8000字的文献综述&#xff0c;自信满满交上去&#xff0c;结果知网AIGC检测直接标红——AI率87.3%。导师让他一周内改到20%以下&#xff0c;否则不给开题。 这种情况今…...