当前位置: 首页 > article >正文

大模型的前生今世(二)

自注意力机制序列在深度学习中一般为带有时间先后顺序拥有逻辑结构的一段具有连续关系的数据文本语音等等注意力机制模拟人类视觉系统的聚焦能力让模型能够在处理复杂数据时选择性地关注输入的不同部分。RNN模型对于前面处理过的信息会有遗忘导致在处理后面的信息的时候会忘记和前面的关联因而引入注意力机制使模型根据当前处理的元素动态地关注输入序列中的相关部分。注意力机制的核心组件查询Query, Q表示当前需要关注的信息键Key, K表示输入序列中每个元素的特征值Value, V表示输入序列中每个元素的具体内容注意力权重Attention Weights表示每个输入元素对当前查询的重要程度上下文向量Context Vector通过加权求和得到的输出在RNN的基础上演进出LSTM长短期记忆网络专门设计用来解决标准RNN在处理长序列数据时梯度消失和梯度爆炸的问题。引入精心设计的门控单元结构能够学习、处理和分类顺序数据并捕捉数据时间步之间的长期相关性。LSTM的核心在于其“记忆细胞”和三个门控机制遗忘门、输入门和输出门。这些门控机制共同作用决定哪些信息需要被长期记住、哪些新信息需要被存入以及哪些信息需要被输出从而实现对有价值信息的长期记忆。vLLM - 伯克利大学LMSYS组织开源的大模型高速推理框架。核心目标是提升实时场景下语言模型服务的吞吐量与内存使用机制。引入PagedAttention技术该技术灵感源自操作系统的虚拟内存分页机制将KV cache划分为固定大小的块进行动态管理从而提高GPU现存利用率。解决传统推理中因为KV cache预分配和变长序列导致的内存碎片与浪费问题。Self-attention - 将单个序列的不同位置关联起来以计算同一序列的表示注意力机制的Q和K是来自不同的元素自注意力机制的Q和K都是来自同一组的元素可以建立全局的依赖关系扩大图像的感受野。相比于CNN其感受野更大可以获取更多的上下文信息。多头注意力机制对每个Q和所有的K-V做多次注意力机制。做几次就是几头。意义在于获取每个Q和所有的K-V的不同依赖关系。这里的几头可以类比为卷积神经网络中的卷积核个数用于从不同角度获取Q和K-V之间的特征。下图为2头为什么要用多头一段文字中可能蕴含情感维度时间维度逻辑维度等不同角度的特征所以要使用Multi-head。将输入序列按照不同的投影矩阵分别投影成多组不同的QKV并行分别计算后再把各组计算的结果合并作为最终的结果Q, K, V计算序列长度为n计算复杂度为O(n^2). GPU可以对矩阵并行计算所有的可能因为每个序列元素对的注意力计算是独立的所以GPU可以为其加速。每个词都先经过embedding之后经过三个投影矩阵得到三个向量Q,K,V先计算Q和K每一行的内积防止内积过大导致softmax梯度消失故除以d_k, d_k的值取决于向量的维度d_k的根号值一般为维度的开方值维度是每个头Q,K的维度Q和K点乘得内积得到每个单词相互之前的注意力score点击相当于Q在K上的投影softmax的结果都为正值相加得1score和V相乘加权求和得到每组注意力head的输出。参考一文搞定自注意力机制Self-Attention-CSDN博客self attention可以捕获同一个句子中单词之间的一些句法特征或者语义特征更容易捕获句子中 长距离的相互依赖的特征。在RNN和LSTM中需要按照顺序序列计算对于远距离的相互依赖得分特征要经过若干步骤的信息累积才能将两者联系起来距离越远有效捕获的可能性越小。self attention在计算过程中通过Q和任意KV的计算能够将任意两个单词的联系通过一个计算步骤直接联系起来所以距离远的两个词之前的特征计算对距离的依赖大大减小。且self-attention的这些计算是独立可以并行的。自注意力机制中本身没有位置信息处理能力导致模型无法捕捉序列中单词的顺序通过添加位置编码来提供序列中每个元素的位置信息。Transformer基于自注意力机制的架构通俗理解QKV机制当我们到图书馆进行检索时你想看的说就是你提出的Query比如“科幻类的书有哪些”那么图书馆中的每本书的索引书名或者标签就是Key用来匹配检索需求而每本书中的实际内容就是Value是最终需要的核心信息。自注意力机制就是根据自己的Q匹配的书的索引K给匹配度高的K打高分注意力权重再根据分数高低提取书中的内容V整合得到输出Transformer检索QKV 整合 校验多个这样的流程叠加完成复杂的序列任务。传统的RNN你有查询的需求Q但是智能按照书籍的顺序一本本翻书无法检索匹配度高的翻到后面就忘了前面长距离依赖丢失速度慢 串行Transformer同时查看所有书的索引直接找到最相关的书籍还能记住所有相关内容的关联速度快且比RNN更精准 并行Transformer发展史2017 → Attention Is All You Need (原始Transformer)2018 → BERT (双向编码器)2018 → GPT-1 (单向解码器)2019 → GPT-2 (更大规模)2020 → GPT-3 (175B参数)2022 → ChatGPT (对话优化)2023 → GPT-4 (多模态)2025 → GPT-5 (模型集成)Transformer架构编码器 解码器。起初是为了机器翻译任务量身定制的其中编码器负责处理源语言输入解码器负责生成目标语言输出最后整合到线性输出层。输入层词嵌入 word embedding, 将每个单词转换为固定难度和向量表示。在人类语言文本进入encoder之前要进行token化100个token对应50个汉字或者75个英文单词。为什么不一个字一个token1.控制词表大小不能每个字每个词都输入因为会有生僻字新造词2. 复用语义比如happy作为核心token可以加词缀推导别的词3. 合理的拆分保留完整语义。比如《西游记》三个字作为一个token比拆分开更能让模型识别其为书籍名称由于计算机无法处理文本所以要将token转化成向量由embedding完成。早期会使用one-hot编码1. 向量稀疏仅对应的token位置维度为1其他位置为02. 无语义关联任意两个one-hot向量的距离均为0无法区分“开心和”快乐“的相近语义或者具有同一偏旁部首的关联性3.无逻辑关系比如无法根据国王” - “男人” “女人” 推导出“女王”现在使用稠密向量也就是token的每个维度都有值能够通过训练自动捕捉语义关联。位置编码 position encoding为模型提供单词的位置信息维度要与embedding一致便于后面做点积文本语义高度依赖词的位置比如“狗咬猫”和“猫咬狗”因为名词位置的变换而导致语义不同。self-attention本身不具备“顺序感知能力”。通过正弦函数和余弦函数生成位置编码区分不同位置且让模型感知位置距离。如果不加位置编码无论单词在什么位置它的注意力分数都是确定的加上之后注意力分数会因为位置的不同而变化。输入进行上述的预处理后进入encoderENCODER1. 多头自注意力机制Q, K, V的计算2. Add NormalizationAdd - 在attention的输出上加一个残差块防止深度神经网络在训练过程中发生退化的问题深度神经网络通过增加网络的层数损失逐渐减小趋于稳定但是再继续增加网络层数损失反而会变大。残差连接让网络只关注当前差异部分ResNetNormalize - 加快训练速度提高训练的稳定性。使用layer Normalization在同一个样本中不同神经元之间进行归一化3. 位置感知前馈神经网络两层神经网络Feed -Forward Network 本质是全连接神经网络对每个token的向量进行独立的非线性变换进一步提炼语义特征。这里位置感知前馈神经网络的输入已经包含位置编码位置编码发生在进入attention计算之前embedding之后token进行embedding之后将位置编码作为基础向量加在每个token embedding之后的向量上。第一层线性变换将向量维度从512提升至2048通过ReLU激活函数引入非线性ReLU max(0,x)第二层线性变换将维度从2048降回512保证输出维度与输入维度一致目的将输入的向量映射到更加高维的空间中然后通过非线性函数ReLU进行筛选再变回原来的维度。DECODER从语义向量到文本生成使用masked多头自注意力层在多头自注意力的基础上多加了一个mask码。mask对某些值进行掩盖使其在参数更新时不产生效果。padding mask - 每个批次输入的序列长度不一样要对输入序列进行对齐。填充0或者截取长的。这些填充的位置没有实际意义attention机制不需要把注意力放在这些位置上面所以可以给这些值加一个非常大的负数经过softmax这些位置的概率会接近0。sequence mask - 使decoder不能看见未来的token。生成的时候是一个一个token生成的。在t时刻解码输出只依赖于t时刻之前也就是说第二个token只能依赖已经生成的第一个token。用一个上三角矩阵将未来的token遮盖住也就是将矩阵中对应位置橘色设置为负无穷经过softmax之后就会为0。这样确保模型只能基于“已生成的token”进行预测符合人类“逐字表达”的逻辑。输出层将decoder的结果经过一次线性变换简单的全连接神经网络用softmax得到输出的概率分布通过词典输出概率最大的对应的单词作为预测的输出。参考【超详细】【原理篇实战篇】一文读懂Transformer-CSDN博客三大经典经典模型的比较CNN 卷积神经网络应用于图像识别尤其是静态图像。无法很好地捕捉到时间依赖结构。长于局部特征提取图像识别图像分类等RNN 循环神经网络应用于序列数据处理。有长依赖效应忘记前后关联难以捕捉远距离的时间依赖梯度消失或爆炸串行处理处理效率低。语音识别Transformer 基于自注意力机制的神经网络应用于序列数据处理。能够更好捕捉长序列中的全局依赖关系并行处理处理效率高计算成本高。机器翻译文本生成等。CNN 和 Transformer根据特点选择或者结合使用。参考​​​​​​​​​​​​​​深度学习模型的比较和选择CNN、RNN和Transformer的优缺点和适用场景-腾讯云开发者社区-腾讯云

相关文章:

大模型的前生今世(二)

自注意力机制 序列:在深度学习中一般为带有时间先后顺序(拥有逻辑结构)的一段具有连续关系的数据(文本,语音等等) 注意力机制: 模拟人类视觉系统的聚焦能力,让模型能够在处理复杂…...

大卫小东(Sheldon)媳

Issue 概述 先来看看提交这个 Issue 的作者是为什么想到这个点子的,以及他初步的核心设计概念。?? 本 PR 实现了 Apache Gravitino 与 SeaTunnel 的集成,将其作为非关系型连接器的外部元数据服务。通过 Gravitino 的 REST API 自动获取表结构和元数据&…...

比特币白皮书解读:一种点对点的电子现金系统

比特币白皮书解读:一种点对点的电子现金系统 2008年,一个名为中本聪的神秘人物发布了一篇题为《比特币:一种点对点的电子现金系统》的白皮书,彻底改变了人类对货币和金融体系的认知。这篇白皮书不仅提出了一种去中心化的数字货币…...

集成AI 的 Redis 客户端 Rudist发布新版了谔

Qt是一个跨平台C图形界面开发库,利用Qt可以快速开发跨平台窗体应用程序,在Qt中我们可以通过拖拽的方式将不同组件放到指定的位置,实现图形化开发极大的方便了开发效率,本笔记将重点介绍QSpinBox数值微调组件的常用方法及灵活应用。…...

高级java每日一道面试题-2025年10月14日-团队协作篇[LangChain4j]-如何设计代码审查标准?

设计代码审查标准 在大型项目尤其是使用 LangChain4j 构建 AI 应用的场景中,代码审查(Code Review)不仅是保证代码质量的手段,更是知识传递、规范落地和风险控制的关键环节。设计一套科学、可执行的代码审查标准,需要从…...

AI原生大数据架构迁移避坑指南(含奇点大会实测的6类典型失败场景、ROI测算模板与12周渐进式演进路线图)

第一章:AI原生大数据架构迁移避坑指南总览 2026奇点智能技术大会(https://ml-summit.org) AI原生大数据架构迁移不是简单的组件替换,而是数据范式、计算语义与工程治理的系统性重构。传统ETL流水线在面对LLM微调数据准备、向量实时索引、多模态特征联合…...

如何用Python实现剪映自动化:告别重复剪辑的3步解决方案

如何用Python实现剪映自动化:告别重复剪辑的3步解决方案 【免费下载链接】JianYingApi Third Party JianYing Api. 第三方剪映Api 项目地址: https://gitcode.com/gh_mirrors/ji/JianYingApi 还在为每天重复的视频剪辑工作感到疲惫吗?想象一下&am…...

前端工程化的构建流程优化

前端工程化的构建流程优化 随着前端项目规模的不断扩大,构建流程的优化成为提升开发效率和性能的关键。前端工程化通过自动化工具和标准化流程,帮助开发者更高效地管理代码、资源和部署。随着项目复杂度增加,构建速度慢、打包体积过大等问题…...

终极指南:使用smcFanControl让您的Intel Mac保持凉爽高效

终极指南:使用smcFanControl让您的Intel Mac保持凉爽高效 【免费下载链接】smcFanControl Control the fans of every Intel Mac to make it run cooler 项目地址: https://gitcode.com/gh_mirrors/smc/smcFanControl 当您的Intel MacBook在运行大型应用时变…...

FLuke15B+与Fluke17B+的维修案例,适合硬件工 FLuke15B+与Fluke17B+的维修案例,适合硬件工程师。 包括15b、17b万用表原理图,电表开机无任何显示维修方法

FLuke15B与Fluke17B的维修案例,适合硬件工 FLuke15B与Fluke17B的维修案例,适合硬件工程师。 包括15b、17b万用表原理图,电表开机无任何显示维修方法,直流电压挡无法测量故障维修方法,交流档不能测量故障维修方法&#…...

仅限奇点大会注册开发者获取:LLM生产环境诊断工具包(含自动检测脚本+拓扑分析器+成本优化计算器)

第一章:2026奇点智能技术大会:LLM生产环境部署指南 2026奇点智能技术大会(https://ml-summit.org) 在真实生产环境中部署大语言模型,需兼顾推理延迟、显存效率、服务稳定性与安全合规性。2026奇点智能技术大会现场实测表明,超过7…...

从单体LLM API到生产级AI网格:一位CTO带队完成迁移的6周攻坚日志,含全部YAML配置模板

第一章:AI原生软件研发服务网格实践指南 2026奇点智能技术大会(https://ml-summit.org) AI原生软件不再仅是“运行AI模型的应用”,而是将模型推理、数据闭环、特征演化、可观测性与策略编排深度内嵌于服务生命周期中的系统级范式。服务网格作为云原生基…...

哥本哈士奇(aspnetx)固

简介 langchain中提供的chain链组件,能够帮助我门快速的实现各个组件的流水线式的调用,和模型的问答 Chain链的组成 根据查阅的资料,langchain的chain链结构如下: $$Input \rightarrow Prompt \rightarrow Model \rightarrow …...

别再让IDEA偷偷帮你import *了!手把手教你关闭Java代码的自动星号导入

彻底告别IDEA的星号导入:优化Java项目性能的隐藏技巧 你是否曾经在代码审查时,突然发现某个类里出现了import java.util.*这样的星号导入?或者更糟糕的是,在项目上线后才发现Jar包体积异常膨胀,经过一番排查才发现是星…...

AI日志平台建设不是工具选型,而是数据契约重构:一份被头部大厂封存3年的《日志Schema治理黄金12条》首次公开

第一章:AI原生软件研发日志分析平台建设 2026奇点智能技术大会(https://ml-summit.org) AI原生软件研发过程中,日志不再是被动记录的副产品,而是具备语义理解能力、可主动推理与反馈的核心数据资产。传统ELK栈难以应对高噪声、多模态、强上下…...

一物一码系统怎么搭建?从0到1的完整实施路径与避坑指南

在数字化转型浪潮中,一物一码已从"锦上添花"变为企业基础设施。但市面上方案繁杂,企业自建常陷入"技术选型迷茫"和"业务落地困难"。本文基于顶讯科技一物一码平台的底层架构逻辑,拆解系统搭建的完整路径&#…...

梅德生物技术快报|重组蛋白纯化工程化实现:Amuc_0119 蛋白 Ni‑NTA 亲和层析全参数方案

这里是卡梅德生物技术快报,本文面向生物工程、蛋白研发工程师,提供 Akk 菌 Amuc_0119重组蛋白纯化的完整工程化方案,包含实验参数、缓冲液体系、质控方法,可直接复现。在微生物功能蛋白研发中,重组蛋白纯化是决定蛋白质…...

Graphormer开源模型部署手册:Supervisor开机自启+日志监控全配置

Graphormer开源模型部署手册:Supervisor开机自启日志监控全配置 1. 模型概述 Graphormer是由微软研究院开发的纯Transformer架构图神经网络模型,专门用于分子属性预测任务。该模型通过创新的分子图表示方法,在OGB、PCQM4M等分子基准测试中大…...

大模型概述1

一个中文字符大约0.6个token,一个英文单词一般0.3个token,不同的大模型有自己不同的tokenize。令牌化的方法。FLOPs:算力的参数,多少此浮点型运算大模型分类:分类方式一:多模态的,多种形态的模型…...

汉鼎建设:用技术解码高端制造的“洁净密码”

在东莞这座“世界工厂”,从精密电子到新能源电池,无数高端制造企业的生产线,都藏在一个个“比手术室还干净”的净化车间里。而广东汉鼎建设集团,正是这些车间背后的“隐形建造者”——作为总部位于东莞东城、拥有装修与机电双一级…...

Cisco 18系列AP通过u-boot实现tftp镜像启动的详细步骤解析

1. 理解Cisco 18系列AP的u-boot启动机制 当你拿到一台Cisco 18系列AP设备时,可能会遇到需要从网络加载镜像进行启动的情况。这就像我们电脑坏了需要从U盘重装系统一样,只不过这里用的是tftp协议通过网络来传输系统镜像。u-boot就是这个过程中的关键角色&…...

从零到一:手把手教你用Labelme打造专属Mask数据集

1. 为什么你需要掌握Labelme标注工具 如果你正在做计算机视觉相关的项目,尤其是图像分割任务,那么高质量的数据集就是你的命根子。市面上现成的数据集往往无法完全匹配你的业务需求,这时候自己动手标注数据就成了必经之路。我刚开始接触图像分…...

LeetCode 热题 100 精讲 | 动态规划进阶篇:最大子数组和 · 分割等和子集 · 最长公共子序列 · 打家劫舍 III

一、53. 最大子数组和 🔗 题目链接 LeetCode 53. 最大子数组和 📝 题目描述 给你一个整数数组 nums,请你找出一个具有最大和的连续子数组(子数组最少包含一个元素),返回其最大和。 示例: 输…...

保姆级教程:基于ROS Melodic和MoveIt!,手把手搭建双RM65机械臂协同控制系统

基于ROS Melodic和MoveIt!的双RM65机械臂协同控制系统实战指南 在工业自动化与智能制造领域,双机械臂协同作业正成为提升生产效率的关键技术。想象一下,两台机械臂如同默契的舞者,在装配线上精准配合,完成单台设备难以企及的复杂任…...

SITS2026未公开PPT泄露分析:7个被主流框架忽略的Attention计算冗余点(附Patch代码)

第一章:SITS2026深度解读:大模型推理优化技术 2026奇点智能技术大会(https://ml-summit.org) SITS2026首次系统性地公布了面向千亿参数级大语言模型的端到端推理优化框架——SITS-Optima,其核心突破在于将动态稀疏注意力、量化感知编译&…...

为什么你需要PS3GameUpdateDownloader?3步掌握索尼官方游戏更新下载

为什么你需要PS3GameUpdateDownloader?3步掌握索尼官方游戏更新下载 【免费下载链接】PS3GameUpdateDownloader downloader for ps3 game updates (.pkg files) from official sony servers written in python 项目地址: https://gitcode.com/gh_mirrors/ps/PS3Ga…...

TVA如何重塑3C产品质量检测新范式(5)

——领导者的角色:选择比努力更重要我们正站在制造业质量管理的转折点。过去,质量的提升是线性、渐进、有限的;未来,借助AI智能体视觉检测(TVA)等人工智能技术,质量的提升可以是非线性、跨越式、…...

Kubernetes Pod 日志持久化方案

Kubernetes Pod日志持久化方案解析 在云原生架构中,Kubernetes已成为容器编排的事实标准,但Pod的默认日志管理方式存在易丢失、难追溯的问题。日志作为故障排查、性能分析的重要依据,其持久化存储成为企业级应用的关键需求。本文将深入探讨几…...

保姆级教程:用Android Studio 2024.3.2 + ncnn,把YOLOv11模型部署到你的安卓手机上

从零开始:用Android Studio与ncnn实现YOLOv11安卓端高效部署实战 当你第一次听说能在手机上运行目标检测模型时,是不是既兴奋又忐忑?作为计算机视觉领域的标杆算法,YOLO系列以其实时性著称,而最新发布的YOLOv11更是将精…...

顶半部与底半部:那次中断风暴让我彻底搞懂了

那天晚上,产线测试机突然卡死,屏幕上的数据刷新停滞在23:47:15。重启后查看内核日志,满屏的“IRQ handler took too long”警告。问题定位到我们新加的传感器驱动——中断频率从设计的100Hz变成了实际跑起来的2kHz,ISR里那个浮点运…...