当前位置: 首页 > article >正文

人工智能|大模型 —— 量化 —— 一文搞懂大模型量化技术:GGUF、GPTQ、AWQ

目前关于大模型量化技术的文章层出不穷但对其理论部分的深入探讨却相对较少。本文将对大模型量化技术进行系统性的介绍并重点聚焦于理论层面的深入解析。一、大模型量化基础大模型量化的核心在于将模型参数的精度从较高的位宽bit-widths例如 32 位浮点数降低到较低的位宽bit-widths例如 8 位整数。1.1 对称量化 Symmetric Quantization在对称量化过程中原本浮点数的值域会被映射到量化空间quantized space中一个以零为中心的对称区间量化前后的值域都是围绕零点对称的。这就意味着在浮点数中表示零的值在量化空间中仍然正好为零。对称量化symmetric quantization有一种经典方法是绝对最大值absmaxabsolute maximum量化。具体操作时我们会从一组数值中找出最大的绝对值 以此作为线性映射的范围。由于这是一种以零为中心的线性映射linear mapping所以计算公式相对简单。计算方式如下为了恢复原始的 FP32 值我们可以使用之前计算出的比例因子s来对量化后的数值进行反量化dequantize。先量化后再反量化以恢复原始值的过程如下所示我们可以观察到某些值如 3.08 和 3.02 在量化到 INT8 后都被分配了相同的值 36。当这些值反量化dequantize回 FP32 时会丢失一些精度变得无法再区分。这种现象通常被称为量化误差quantization error我们可以通过比较原始值original values和反量化值dequantized values之间的差值来计算这个误差。1.2 非对称量化 asymmetric quantization与对称量化symmetric around不同非对称量化并不是以零为中心对称的。它将浮点数范围中的最小值β和最大值α映射到量化范围quantized range的最小值和最大值。我们在此要探讨的方法称为零点量化。我们注意到 0 的位置发生了移动这正是它被称为“非对称量化”的原因。在区间 [-7.59, 10.8] 中最小值和最大值与零点之间的距离是不相等的。由于零点位置的偏移我们需要计算 INT8 范围的零点来进行线性映射linear mapping。与之前一样我们还需要计算一个比例因子s但这次要使用 INT8 范围 [-128, 127] 的两个端点之间的差值。反量化过程则相对比较直接1.3 GGUF 量化GGUF 通常使用分组量化Group-wise Quantization比如将权重矩阵分成多个小块每个块单独进行量化和缩放。例如Q4_0 量化可能将权重分成 32 个元素一组每个组使用 4 位整数存储并配有一个缩放因子scale。好的以下是一个针对 **单权重矩阵 W** 的 **GGUF量化Q4_0类型** 的具体数值计算示例展示如何从原始FP32矩阵转换为4位量化格式。假设原始权重矩阵为W [ [0.28, -1.32, 0.66, 2.10], [0.91, -0.45, -0.72, 1.80], [-0.34, 1.22, -0.89, -1.50], [0.15, -0.60, 0.33, 0.92] ]步骤 1分组GroupingGGUF的 Q4_0 量化将矩阵按行分组默认每组 32 个元素但此处简化为 4x4 矩阵每组 4 元素Group 1: [0.28, -1.32, 0.66, 2.10] # 第一行 Group 2: [0.91, -0.45, -0.72, 1.80] # 第二行 Group 3: [-0.34, 1.22, -0.89, -1.50] # 第三行 Group 4: [0.15, -0.60, 0.33, 0.92] # 第四行步骤2计算缩放因子Scale和零点Zero Point对每个分组分别计算缩放因子scale计算零点zero point步骤 3使用对称量化或非对称量化对每一组进行量化二、GPTQ前面介绍的量化方法都是不考虑量化误差的因此效果往往比较差。接下来我们介绍下后训练量化方法考虑量化误差的情况下提升量化效果。2.1 OBSOptimal Brain Surgeon[1]OBS 认为参数之间的独立性实际上是一种剪枝方法用于降低模型复杂度提高泛化能力。如果将 OBS 剪枝的思路用在大模型量化2.2 OBCOptimal Brain Compression[2]2.2.1 OBS 用于分层剪枝或量化前面的 OBS 是对整个神经网络进行剪枝而 OBC 是对神经网络模型分层剪枝或者量化。首先将层剪枝问题抽象为优化问题。2.2.2 ExactOBSimport numpy as np def remove_row_col_hinv(Hinv, p): 使用 Lemma 1 更新 H^{-1}删掉第 p 行和第 p 列。 Hinv: 原始 H^{-1} 矩阵 (对称正定) p: 要移除的索引 Hinv Hinv.copy() hpp Hinv[p, p] hp Hinv[:, p].reshape(-1, 1) # 第 p 列列向量 update (hp hp.T) / hpp Hinv_updated Hinv - update # 删除第 p 行和第 p 列 mask np.ones(Hinv.shape[0], dtypebool) mask[p] False return Hinv_updated[np.ix_(mask, mask)] np.random.seed(0) # 构造一个 3x5 的输入矩阵 X X np.random.randn(3, 5) # 构造一个 3x3 正定 Hessian 矩阵 H 2XX^T H 2 * X X.T # 计算其逆 Hinv np.linalg.inv(H) print(原始 H^{-1}\n, Hinv) # 用 Lemma 1 计算删除 X 中第 1 行第 1 列后的 Hessian 矩阵的逆矩阵 Hinv_removed remove_row_col_hinv(Hinv, p1) print(\n删除第1行/列后的 H^{-1}\n, Hinv_removed) # 验证删掉 H 的第1行和列后重新求逆看看是否一样 H_removed H[np.ix_([0, 2], [0, 2])] Hinv_true np.linalg.inv(H_removed) print(\n直接计算新 H 的逆\n, Hinv_true) # 比较两个结果是否一致 print(\n两种方式是否接近, np.allclose(Hinv_removed, Hinv_true))下面是执行上面代码的输出结果可以看到结果完全一致。2.3 GPTQ一种新的后训练量化方法GPTQ 作者提出了一个经验发现对于大规模、参数众多的层即使不使用贪心策略只要采用任意固定顺序来量化每一行中的权重最终的误差几乎和贪心顺序一致。也就是说原来每一行都维护自己的“最优量化顺序”现在所有行都使用相同的顺序。虽然理论上不是局部最优但整体误差变化非常小尤其在参数数量大的时候几乎无影响。之所以可行主要有两个原因大模型冗余性高由于大模型极度冗余单个权重引入的误差影响微小统一顺序导致的子最优选择不会积累为显著性能损失。量化误差可补偿GPTQ 中使用的 Hessian-based 误差补偿机制会在每一步自动对未量化权重进行调整进一步抑制误差传播。统一顺序量化带来的优化空间巨大这项改进使得参数矩阵每一行的量化可以做并行的矩阵计算则所有行共享一个逆 Hessian 矩阵对 Hessian 的逆矩阵只需更新一次下面计算顺序量化的时间复杂度为了提升效率GPTQ 引入了Lazy Batch-Updates技术该技术通过分块 (batching) 的方式减少内存访问次数从而显著提高计算效率。三、AWQ虽然前面的 GPTQ 通过校准数据最小化量化误差提升量化效果。但是可能过拟合校准集导致模型在分布外域上的性能下降。而AWQActivation-aware Weight Quantization不进行回归或重建仅通过统计校准集中的激活值来选择关键权重并进行缩放。种基于激活分布的策略不会直接修改模型权重因此可以更好地保留模型的原始特性和知识。AWQ 具体方法通过激活分布按大小选择 1% 关键权重通过缩放关键权重降低量化误差3.1 什么是AWQ现有方法的局限性低比特量化被认为是解决这一问题的方法之一通过降低模型权重的精度来减小内存占用并加速推理。然而量化感知训练QAT需要重新训练模型计算成本极高不适用于大规模LLMs后训练量化PTQ无需重新训练但在低比特如4-bit情况下会显著降低模型性能。现有工作的问题GPTQ 等方法尝试利用二阶信息来补偿量化误差但这些方法可能过拟合校准集导致模型在分布外的领域或模态上性能下降混合精度量化虽然能提升性能但硬件效率低解决方案AWQActivation-aware Weight Quantization核心思想通过观察发现并非所有权重对模型性能的重要性相同保护模型中仅1% 关键权重salient weights可以显著降低量化误差关键权重的选择应基于激活分布activation distribution而不是权重本身的分布3.2 保护 1% 关键权重Salient Weights作者提出并非所有权重对模型性能的贡献相同。模型中仅有小部分权重约0.1%-1%对性能至关重要这些权重被称为关键权重salient weights。量化这些关键权重会对性能产生显著影响而量化其他权重的影响较小。如果对关键权重进行保护即避免量化或降低量化误差可以显著减少模型性能下降。例如在 OPT-6.7B 模型中困惑度PPL通过保护关键权重从43.2降至13.0如图6(a)、(b)所示。如何识别关键权重传统方法的局限性过去的研究通常通过权重的大小magnitude或 L2 范数来判断权重的重要性然而实验表明基于权重本身选择关键权重的效果有限无法显著改善模型性能激活感知方法Activation Awareness本文提出了一项新的观察权重的重要性更多地体现在其对应的激活分布activation distribution上而非权重本身的大小。核心思想激活值较大的通道更重要因为这类通道处理了更多关键特征对应的权重通道应被视为关键权重优先保护以减少量化误差通过激活分布选择关键权重比通过权重本身分布更有效实验验证目标探讨保留少量关键权重salient weights为 FP16 格式对低比特量化模型性能的提升效果量化设置INT3 量化权重为3-bit数据指标通过困惑度 PPL 衡量模型性能PPL 值越低表示模型性能越好对比方法RTNRound-to-nearest直接采用四舍五入量化作为基线基于激活分布保留关键权重FP16% (based on act.)基于权重分布保留关键权重FP16% (based on W)随机保留权重FP16% (random)实验结果对比从上面的实验结果来看基于激活分布保留关键权重的效果最好而保留 1% 激活值和保留 3% 激活值的效果相差不大。3.3 通过缩放关键权重降低量化误差3.3.1 分析量化误差量化误差的来源实验结果如下3.3.2 搜索缩放因子这一部分介绍了如何通过搜索方法为关键权重通道找到最佳的缩放因子 以最小化量化误差并优化模型性能。搜索缩放因子是 AWQ 方法的核心之一通过缩放关键权重通道的值可以减少量化误差同时避免对非关键权重通道引入过多的误差。3.4 实验下图是在 Llama 上的实验结果而将 AWQ 和 GPTQ 相结合可以进一步提升效果。下图显示了 AWQ 需要更少的校验集而且对不同分布的校验集更鲁棒。

相关文章:

人工智能|大模型 —— 量化 —— 一文搞懂大模型量化技术:GGUF、GPTQ、AWQ

目前关于大模型量化技术的文章层出不穷,但对其理论部分的深入探讨却相对较少。本文将对大模型量化技术进行系统性的介绍,并重点聚焦于理论层面的深入解析。 一、大模型量化基础 大模型量化的核心在于将模型参数的精度从较高的位宽(bit-width…...

避坑指南:Windows下OpenCV摄像头索引混乱问题的3种解决之道

避坑指南:Windows下OpenCV摄像头索引混乱问题的3种解决之道 在工业视觉和智能监控领域,多摄像头协同工作是常见需求。但当你在Windows平台上使用OpenCV的VideoCapture接口时,可能会遇到这样的困扰:每次重启系统后,原本…...

告别低效循环:利用快马平台智能生成向量化代码,提升数据处理性能

最近在做一个数据分析项目时,遇到了性能瓶颈。处理一个几十万行的数据集时,简单的循环操作竟然要跑好几分钟。经过一番摸索,我发现向量化操作真是个神器,今天就分享一下如何用NumPy和Pandas来提升数据处理效率。 首先我们创建一个…...

nanobot实操手册:Qwen3-4B模型温度(temperature)、top_p、max_tokens参数详解

nanobot实操手册:Qwen3-4B模型温度(temperature)、top_p、max_tokens参数详解 1. nanobot简介与快速上手 nanobot是一款超轻量级的个人人工智能助手,灵感来源于OpenClaw项目。它最大的特点是代码量极小,仅需约4000行…...

【部署】windows下虚拟机OpenClaw Ubuntu 24.04.4 安装指南

未来已来,只需一句指令,养龙虾专栏导航,持续更新ing… 概述 前置环境:win10/11、vmware等虚拟机(安装时注意勾选VMware Tools、cpu可以分配2C,内存建议4G,硬盘空间建议给40G) 系统要求 Node.js 22+:安装脚本可自动检测并安装(下文补充手动安装方案); Ubuntu 24.0…...

OpenClaw本地模型成本对比:nanobot镜像vs商业API实测

OpenClaw本地模型成本对比:nanobot镜像vs商业API实测 1. 为什么需要关注OpenClaw的模型成本 上周我在尝试用OpenClaw自动化处理200份PDF文档时,意外发现账单上出现了三位数的API费用。这个数字让我意识到——当OpenClaw需要频繁调用大模型进行决策时&a…...

嵌入式C++ RAII互斥锁封装器MutexLocker详解

1. MutexLocker:嵌入式C RAII风格互斥锁封装器深度解析1.1 设计动机与工程价值在基于mbed RTOS(现为Mbed OS中CMSIS-RTOS v2兼容层)的嵌入式实时系统开发中,互斥量(Mutex)是保障多任务共享资源安全访问的核…...

NaViL-9B部署实操手册:supervisor服务管理+日志排查全流程详解

NaViL-9B部署实操手册:supervisor服务管理日志排查全流程详解 1. 平台简介 NaViL-9B是原生多模态大语言模型,支持纯文本问答和图片理解功能。该模型采用双24GB显卡配置,已预处理好模型权重和注意力机制兼容性问题,开箱即用。 2.…...

Java 设计模式・策略模式篇:从思想到代码实现

一、行为型模式 在面向对象的世界里,如何优雅地组织对象间的交互、分配职责,是每一位开发者都会反复思考的问题。直接硬编码交互逻辑固然简单,但当业务复杂度上升、对象协作关系变得错综复杂时,这种方式就会让代码变得僵化、难以…...

ECG-Emotion Recognition(情绪识别)实战指南:WESAD与DREAMER数据集深度解析与应用

1. 情绪识别与ECG技术入门指南 第一次接触ECG情绪识别时,我和大多数人一样充满疑惑:心跳数据真能反映人的情绪?经过三个月的项目实践,我可以肯定地说,ECG信号就像情绪的"心电图",愤怒时心跳加速、…...

【agent原理】OpenClaw之agent全链路详解

未来已来,只需一句指令,养龙虾专栏导航,持续更新ing… openclaw的术语约定 专业术语 类比 核心作用 不用的后果 Agent Bootstrapping AI员工的入职仪式 给AI办工牌、定岗位职责、录用户信息、建工作文件夹,只执行一次 手动建文件格式错乱、agent读不到规则、配置不统一、重…...

ImageSearch本地图片搜索引擎:从技术原理到实战应用

ImageSearch本地图片搜索引擎:从技术原理到实战应用 【免费下载链接】ImageSearch 基于.NET8的本地硬盘千万级图库以图搜图案例Demo和图片exif信息移除小工具分享 项目地址: https://gitcode.com/gh_mirrors/im/ImageSearch 价值定位:重新定义本地…...

vLLM-v0.17.1效果展示:vLLM支持MoE模型(如Mixtral)推理实测

vLLM-v0.17.1效果展示:vLLM支持MoE模型(如Mixtral)推理实测 1. vLLM框架核心能力 vLLM是一个专注于大语言模型推理的高性能服务库,最新发布的v0.17.1版本带来了对MoE(混合专家)架构模型的全面支持。这个最…...

突破透明动画性能瓶颈:VAP引擎实现移动端高效视觉体验

突破透明动画性能瓶颈:VAP引擎实现移动端高效视觉体验 【免费下载链接】vap VAP是企鹅电竞开发,用于播放特效动画的实现方案。具有高压缩率、硬件解码等优点。同时支持 iOS,Android,Web 平台。 项目地址: https://gitcode.com/gh_mirrors/va/vap …...

Webflux fromXXX对比

Mono.fromFuture和Mono.fromSupplier 刚开始尝试使用 Spring WebFlux 的时候,很多人都会使用 Mono.fromFuture() 将异步请求转成 Mono 对象,或者 Mono.fromSupplier() 将请求转成 MOno 对象,这两种方式在响应式编程 中都是不建议的&#xff0…...

FreeMoCap终极指南:如何用普通摄像头实现专业级3D动作捕捉

FreeMoCap终极指南:如何用普通摄像头实现专业级3D动作捕捉 【免费下载链接】freemocap Free Motion Capture for Everyone 💀✨ 项目地址: https://gitcode.com/GitHub_Trending/fr/freemocap 还在为专业动作捕捉设备的高昂价格而烦恼吗&#xff…...

家庭实验室:树莓派控制OpenClaw调用远程Qwen3-32B

家庭实验室:树莓派控制OpenClaw调用远程Qwen3-32B 1. 为什么选择树莓派OpenClaw组合 去年冬天,我在整理家庭实验室设备时发现一个闲置的树莓派4B。这台信用卡大小的电脑曾经用来跑Home Assistant控制智能家居,但后来换了NUC主机就被束之高阁…...

OpenClaw人人养虾:接入Matrix

Matrix 是一个开放的去中心化通讯协议(Decentralized Communication Protocol),任何人都可以搭建自己的 Homeserver(家服务器)并与全球 Matrix 网络互联。OpenClaw 通过 Matrix Client-Server API 实现接入。 前置要求…...

搞懂 SAP Fiori 前端服务器授权模型:从看得见应用,到真正拿到数据

在很多 SAP 项目里,权限问题最容易制造一种很迷惑的现象:用户明明已经拿到了角色,却还是打不开应用;或者磁贴已经能看见了,点进去却报错;再或者应用能启动,却一条业务数据都读不出来。要把这类问题讲清楚,关键不在于死记事务码,而在于真正理解 SAP Fiori 的授权是如何…...

把 SAP Fiori 后端授权模型讲透:从 PFCG、Catalog 到 SU24 的一条完整链路

很多团队在上线 SAP Fiori 应用时,会把注意力集中在前端目录、磁贴和页面配置上,结果到了联调或上线阶段才发现:用户明明能看到应用入口,点击之后却报错;或者应用能打开,但列表为空;再或者少数用户能看到不该看的业务数据。问题往往不在 UI 本身,而在后端授权模型没有真…...

OpenClaw安全实践:GLM-4.7-Flash本地化部署的权限控制指南

OpenClaw安全实践:GLM-4.7-Flash本地化部署的权限控制指南 1. 为什么需要关注OpenClaw的权限控制? 去年夏天,我在整理电脑上的财务报告时,无意中发现OpenClaw自动将我的税务文件同步到了一个陌生目录。这个意外让我意识到——当…...

基于springboot服装生产管理的设计与实现.7z(源码+论文+任务书+开题报告)

[点击下载链接》》》] 本协力服装厂服装生产管理系统设计目标是实现协力服装厂服装生产的信息化管理,提高管理效率,使得协力服装厂服装生产管理作规范化、科学化、高效化。 本文重点阐述了协力服装厂服装生产管理系统的开发过程,以实际运用为…...

多模态数据挖掘前沿:生物医学与情感分析领域论文深度解析

多模态数据挖掘前沿:生物医学与情感分析领域论文深度解析 在人工智能与大数据技术飞速发展的当下,多模态数据因能更全面、立体地刻画研究对象,已成为科研领域的核心研究方向。本文将深度解析两篇聚焦多模态数据挖掘的重磅论文——《多模态生物…...

将 OnePlus 手机备份到云服务

丢失 OnePlus 设备上的珍贵照片、重要联系人、短信或应用数据可能会令人非常沮丧,无论是意外删除、设备损坏、被盗,甚至是恢复出厂设置。这时,云备份就派上了用场。它提供了一种简单可靠的数据保护方式,确保您可以随时随地在新 On…...

Qwen3.5-27B-GPTQ-Int4:超高效多模态AI新体验

Qwen3.5-27B-GPTQ-Int4:超高效多模态AI新体验 【免费下载链接】Qwen3.5-27B-GPTQ-Int4 项目地址: https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3.5-27B-GPTQ-Int4 导语 阿里云推出Qwen3.5-27B-GPTQ-Int4模型,通过4位量化技术实现性能与效率的双…...

第三次作业:django做动态(个人主页)

...

从Blender到虚幻引擎:除了FBX,试试GLTF格式导入的完整流程与优势对比

从Blender到虚幻引擎:GLTF格式导入的完整流程与优势解析 在三维内容创作领域,Blender与虚幻引擎的组合已经成为许多专业团队的标准工具链。当我们需要将精心制作的模型从Blender迁移到虚幻引擎时,传统的FBX格式虽然广为人知,但GLT…...

AOP 代理对象的诞生时刻:Bean 生命周期中的“夺舍”瞬间

各位大佬,欢迎来到 Spring 容器最神秘、最惊心动魄的现场!很多人以为 AOP 是“天生”的, Bean 一出生就带着光环。大错特错!不过是前人在负重前行:Spring 先造出一个“纯净的肉身”(原始对象)&a…...

《计算机网络》再学习

1.TCP/IP与OSI模型1)TCP/IP模型应用层:为程序提供网络服务。协议:HTTP,DNS与FTP等传输层:提供端到端的通信服务,确保数据的可靠传输。协议:TCP与UDP网络层:负责数据包的路由与转发。…...

降AIGC哪家强?2026零成本保姆级教程:DeepSeek/Kimi/豆包专属降重指令实测与差异解析

很多时候大学生写论文逻辑太严谨、话术太规范,反而会导致AI率过高,且一旦AI率过高,轻则退回重改,重则取消答辩资格,这后果谁都担不起。 为了帮大家有效降低aigc率,这周我专门针对目前市面上最主流的三款大…...