当前位置: 首页 > article >正文

CANN/cann-bench量化矩阵乘法算子

QuantMatmul 算子 API 描述【免费下载链接】cann-bench评测AI在处理CANN领域代码任务的能力涵盖算子生成、算子优化等领域支撑模型选型、训练效果评估统一量化评估标准识别Agent能力短板构建CANN领域评测平台推动AI能力在CANN领域的持续演进。项目地址: https://gitcode.com/cann/cann-bench1. 算子简介量化矩阵乘法算子。完成量化的矩阵乘计算支持 int8/int4 输入输出 float16/bfloat16/int8/int32。主要应用场景大语言模型 W8A8/W4A4 推理中的 Linear 层KV cache 量化流水线中的量化 GEMM静态 per-channel 或动态 per-token 量化方案算子特征难度等级L3Contraction输入 2–6 维int8 或 int4 数据输出 float16/bfloat16/int8/int32支持 per-tensor / per-channel / per-group / per-token 多级量化2. 算子定义数学公式无 bias $$ out x1 \mathbin{} x2 * scale offset $$bias 为 int32 $$ out (x1 \mathbin{} x2 bias) * scale offset $$bias 为 bfloat16/float32无 offset $$ out x1 \mathbin{} x2 * scale bias $$带 pertoken_scale $$ out (x1 \mathbin{} x2 * scale offset) * pertoken_scale $$步骤说明矩阵乘mm[...,m,n] x1[...,m,k] x2[...,k,n]int8 在硬件上累加到 int32。int32 biaspre-scale若 bias 为 int32先与累加结果相加。反量化 scale按 scale 形状广播支持 per-tensor[1]或 per-channel[n]。offset反量化后的偏移调整。pertoken_scale可选沿 m 维广播的 per-token 缩放。浮点 biaspost-scale若 bias 为 bf16/fp32 且无 offset在反量化后相加。cast按 output_dtype 输出。3. 接口规范算子原型cann_bench.quant_matmul( Tensor x1, Tensor x2, Tensor scale, *, Tensor? offsetNone, Tensor? pertoken_scaleNone, Tensor? biasNone, str? output_dtypeNone, int[]? group_sizesNone, ) - Tensor out输入参数参数类型Shapedtype描述x1Tensor (必选)[..., m, k]2–6 维int8 / int32左矩阵。int32 表示 int4 类型每个 int32 存放 8 个 int4x2Tensor (必选)[..., k, n]2–6 维最后一维 ≤ 65535int8 / int32右矩阵与 x1 dtype 一致scaleTensor (必选)[t](t1 或 n)或 2D[ceil(k/group_k), n]float32 / int64 / bfloat16量化缩放因子offsetTensor (可选)[t](t1 或 n)或 2D与 scale 相同float32 / float16反量化偏移。scale 为 2D 时必选pertoken_scaleTensor (可选)[m]float32per-token 缩放因子biasTensor (可选)[n]/[1, n]/[batch, 1, n]int32 / bfloat16 / float16 / float32偏置项output_dtypestr (可选)--输出 dtypeint8 / float16 / bfloat16 / int32默认 int8group_sizesint[] (可选)--分组量化粒度 [group_m, group_n, group_k]输出参数Shapedtype描述out[..., m, n]由 output_dtype 决定计算结果数据类型组合Atlas 推理系列加速卡 | x1 | x2 | scale | offset | bias | pertoken_scale | output_dtype | |----|----|-------|--------|------|---------------|--------------| | int8 | int8 | int64/float32 | None | int32/None | None | float16 | | int8 | int8 | int64/float32 | float32/None | int32/None | None | int8 |Atlas A2/A3 系列 | x1 | x2 | scale | offset | bias | pertoken_scale | output_dtype | |----|----|-------|--------|------|---------------|--------------| | int8 | int8 | int64/float32 | None | int32/None | None | float16 | | int8 | int8 | int64/float32 | float32/None | int32/None | None | int8 | | int8 | int8 | float32/bfloat16 | None | int32/bfloat16/float32/None | float32/None | bfloat16 | | int8 | int8 | float32 | None | int32/bfloat16/float32/None | float32 | float16 | | int32 | int32 | int64/float32 | None | int32/None | None | float16 | | int32 | int32 | float32 | float16 | None | float32 | bfloat16/float16 | | int8 | int8 | float32/bfloat16 | None | int32/None | None | int32 |规则与约束x1.shape[-1] x2.shape[-2] kx2.shape[-1] ≤ 65535scale 为 2D 时offset 必选且 shape 与 scale 相同bias输出 2/4/5/6 维时必须 1D输出 3 维时可为 1D 或 3Dint4 场景x1/x2 为 int32每个 int32 存放 8 个 int4shape 最后一维缩小 8 倍group_sizes 取值范围 [0, 65535]4. 精度要求采用生态算子精度标准进行验证。误差指标平均相对误差MERE采样点中相对误差平均值$$ \text{MERE} \text{avg}(\frac{\text{abs}(actual - golden)}{\text{abs}(golden)\text{1e-7}}) $$最大相对误差MARE采样点中相对误差最大值$$ \text{MARE} \max(\frac{\text{abs}(actual - golden)}{\text{abs}(golden)\text{1e-7}}) $$通过标准数据类型FLOAT16BFLOAT16FLOAT32HiFLOAT32FLOAT8 E4M3FLOAT8 E5M2通过阈值(Threshold)2^-102^-72^-132^-112^-32^-2当平均相对误差 MERE Threshold最大相对误差 MARE 10 * Threshold 时判定为通过。5. 标准 Golden 代码import torch from typing import Optional, List def quant_matmul( x1: torch.Tensor, x2: torch.Tensor, scale: torch.Tensor, offset: Optional[torch.Tensor] None, pertoken_scale: Optional[torch.Tensor] None, bias: Optional[torch.Tensor] None, output_dtype: Optional[str] None, group_sizes: Optional[List[int]] None, ) - torch.Tensor: 量化矩阵乘法对标 torch_npu.npu_quant_matmul Args: x1: [..., m, k] int8/int32 左矩阵 x2: [..., k, n] int8/int32 右矩阵 scale: [t] 或 2D反量化 scale offset: [t] 或 2D反量化偏移 pertoken_scale: [m] per-token scale bias: [n] 或 [batch, 1, n] 偏置 output_dtype: 输出类型默认 int8 group_sizes: 分组量化粒度 Returns: out: [..., m, n] # 矩阵乘int8 用 float32 等效 mm torch.matmul(x1.float(), x2.float()) # int32 bias 在反量化前累加 if bias is not None and bias.dtype torch.int32: mm mm bias.float() # 反量化 scale y mm * scale.float() # offset if offset is not None: y y offset.float() # pertoken_scale if pertoken_scale is not None: y y * pertoken_scale.float().unsqueeze(-1) # 浮点 bias无 offset 时 if bias is not None and bias.dtype ! torch.int32 and offset is None: y y bias.float() # 输出 dtype if output_dtype is None or output_dtype int8: out_dtype torch.int8 elif output_dtype float16: out_dtype torch.float16 elif output_dtype bfloat16: out_dtype torch.bfloat16 elif output_dtype int32: out_dtype torch.int32 else: raise ValueError(funsupported output_dtype: {output_dtype}) return y.to(out_dtype)6. 额外信息算子调用示例import torch import cann_bench # int8 输入float16 输出per-channel scale x1 torch.randint(-128, 127, (1024, 3584), dtypetorch.int8, devicenpu) x2 torch.randint(-128, 127, (3584, 3584), dtypetorch.int8, devicenpu) scale torch.rand(3584, dtypetorch.float32, devicenpu) * 0.01 out cann_bench.quant_matmul(x1, x2, scale, output_dtypefloat16) # 带 offset int32 bias pertoken_scalebfloat16 输出 x1 torch.randint(-128, 127, (1024, 4096), dtypetorch.int8, devicenpu) x2 torch.randint(-128, 127, (4096, 14336), dtypetorch.int8, devicenpu) scale torch.rand(14336, dtypetorch.float32, devicenpu) * 0.01 offset torch.rand(14336, dtypetorch.float32, devicenpu) bias torch.randint(-100, 100, (14336,), dtypetorch.int32, devicenpu) pertoken torch.rand(1024, dtypetorch.float32, devicenpu) out cann_bench.quant_matmul(x1, x2, scale, offsetoffset, pertoken_scalepertoken, biasbias, output_dtypebfloat16)CANN 底层实现aclnnQuantMatmulV4: 基础量化矩阵乘aclnnQuantMatmulV5: A8W4 / A4W4 分组量化aclnnQuantMatmulWeightNz: weight NZ 格式优化【免费下载链接】cann-bench评测AI在处理CANN领域代码任务的能力涵盖算子生成、算子优化等领域支撑模型选型、训练效果评估统一量化评估标准识别Agent能力短板构建CANN领域评测平台推动AI能力在CANN领域的持续演进。项目地址: https://gitcode.com/cann/cann-bench创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

相关文章:

CANN/cann-bench量化矩阵乘法算子

QuantMatmul 算子 API 描述 【免费下载链接】cann-bench 评测AI在处理CANN领域代码任务的能力,涵盖算子生成、算子优化等领域,支撑模型选型、训练效果评估,统一量化评估标准,识别Agent能力短板,构建CANN领域评测平台&a…...

CANN/ops-transformer FlashAttention变长分数计算V5

aclnnFlashAttentionVarLenScoreV5 【免费下载链接】ops-transformer 本项目是CANN提供的transformer类大模型算子库,实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-transformer 产品支持情况 产品是否支持Ascend 950PR/Ascend 950DTA…...

CANN/atvoss二元运算符基类

BinaryOp 【免费下载链接】atvoss ATVOSS(Ascend C Templates for Vector Operator Subroutines)是一套基于Ascend C开发的Vector算子库,致力于为昇腾硬件上的Vector类融合算子提供极简、高效、高性能、高拓展的编程方式。 项目地址: https…...

精通MagiskBoot:Android启动镜像修改与Root权限获取实战指南

精通MagiskBoot:Android启动镜像修改与Root权限获取实战指南 【免费下载链接】Magisk The Magic Mask for Android 项目地址: https://gitcode.com/GitHub_Trending/ma/Magisk MagiskBoot是Android系统定制与Root权限获取的核心工具,它专门处理bo…...

MCPal:基于MCP协议为AI助手构建原生桌面通知系统

1. 项目概述:一个为AI助手打造的桌面通知中枢 如果你和我一样,日常重度依赖Claude、Cursor、GPT这些AI编程助手,那你肯定遇到过这个场景:你给AI助手布置了一个任务,比如“帮我分析一下这个项目的依赖关系”&#xff0…...

想转行AI?这4个高薪赛道速来!大模型岗位深度解析,普通人也能进!

想转行AI,但不知道自己适合做什么方向…? 很多人一听到AI大模型,脑子里浮现的就是“搞算法”“硕士起步”,然后默默关掉页面,觉得自己没戏了。但事实是,大模型领域的岗位早已分化,不同方向的门槛…...

AArch64处理器ID_AA64PFR2_EL1寄存器解析与应用

1. AArch64处理器特性寄存器概述在Arm AArch64架构中,系统寄存器扮演着至关重要的角色,它们是处理器与操作系统之间的关键接口。这些寄存器可以分为两大类:通用寄存器和专用系统寄存器。ID_AA64PFR2_EL1属于后者,是处理器特性寄存…...

GPT-4o图像生成实战:从提示词工程到五大核心场景应用

1. 从灵感仓库到创作引擎:GPT-4o图像生成实战全解析如果你和我一样,每天在社交媒体上刷到那些令人惊叹的AI生成图像,从Q版手办到赛博朋克微缩景观,从复古海报到未来主义名片,心里除了“哇塞”,可能还会冒出…...

并行关联扫描与牛顿方法在状态空间模型中的应用

1. 并行关联扫描:分治策略的高效实现并行关联扫描(Parallel Associative Scan)是并行计算领域的核心算法之一,它能够在O(logT)时间内完成对长度为T的序列的关联操作。这个算法的威力来自于对二元关联运算符的巧妙利用和分治策略的…...

通用资源管理库resourcelib:依赖注入与生命周期管理实践

1. 项目概述:一个被低估的通用资源管理库如果你在开发中经常需要处理各种“资源”——无论是本地的配置文件、远程的API密钥、数据库连接池,还是更抽象的计算图节点、机器学习模型权重——并且为它们的加载、缓存、生命周期管理和依赖解析感到头疼&#…...

AI自动化文献综述:NLP与机器学习驱动的科研效率革命

1. 项目概述:当文献综述遇上AI,一场效率革命如果你也曾在深夜面对堆积如山的PDF文献,为撰写综述而抓狂,那么“AI自动化文献综述”这个话题,绝对能让你眼前一亮。这不仅仅是“用工具查文献”,而是一整套利用…...

数字示波器频率响应与上升时间测量技术解析

1. 数字示波器频率响应基础解析在电子测量领域,频率响应特性是评估示波器性能的核心指标之一。传统模拟示波器采用多级模拟放大器串联架构,从输入端到CRT显示通常需要将信号放大三个数量级。这种结构自然形成了高斯频率响应特性,其数学表达式…...

CANN/ops-transformer FlashAttention可变长评分

aclnnFlashAttentionVarLenScore 【免费下载链接】ops-transformer 本项目是CANN提供的transformer类大模型算子库,实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-transformer 产品支持情况 产品是否支持Ascend 950PR/Ascend 950DT√A…...

HKUDS开源NanoBot

概述 官网,HKUDS开源(GitHub,42.1K Star,7.4K Fork)纳米级Clawdbot(OpenClaw),复刻Clawdbot几乎所有的核心智能体功能,但代码量只有4000行。 注:NanoBot除H…...

系统级自动化测试框架设计:从核心原理到工程实践

1. 项目概述:一个面向未来的系统级自动化测试框架在软件开发的深水区,尤其是涉及操作系统内核、驱动或底层系统服务的项目里,测试从来都不是一件轻松的事。传统的单元测试和集成测试框架,在面对需要模拟复杂硬件交互、系统状态变迁…...

在Taotoken控制台中清晰追踪项目成本与各模型消耗明细

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 在Taotoken控制台中清晰追踪项目成本与各模型消耗明细 对于使用大模型API进行开发的团队或个人而言,成本控制与费用透明…...

多模态情感识别系统:完整实现与代码详解

多模态情感识别系统:完整实现与代码详解 目录 系统概述 系统架构设计 环境配置与依赖安装 文本情感分析模块 语音情绪识别模块 人脸表情识别模块 多模态融合模块 实时Web交互界面 完整项目代码汇总 运行与使用指南 总结与展望 一、系统概述 多模态情感识别是当前人机交互领域…...

能耗管理系统是什么?主要有哪几种关键功能和应用场景?

能耗管理系统的基本功能解析 具备多种核心功能,为了实时监测能源的使用状况,提升能效并降低相关成本。其中、在线计量功能让企业可以实时掌握用电情况,进而进行针对性的管理。超功率告警能够及时发现异常能耗,防止无意中的过度浪费…...

Azure/setup-helm:GitHub Actions 中 Helm 客户端安装的标准化解决方案

1. 项目概述:为什么我们需要一个官方的 Helm 安装 Action?如果你在 GitHub Actions 的工作流里用过 Helm,大概率经历过这样的场景:为了安装 Helm 客户端,你不得不在steps里写一段run命令,可能是从 GitHub R…...

AI智能体工作空间管理:Workspace Manager Skill提升项目组织与自动化效率

1. 项目概述与核心价值最近在折腾AI智能体(AI Agent)和自动化工作流,发现一个挺普遍的问题:很多工具功能强大,但上手后文件、项目、文档的管理很快就变得一团糟。特别是当你用ClawPad这类智能体平台,或者自…...

基于多智能体提示工程的AI团队协作框架ClubGPT深度解析

1. 项目概述:一个模拟团队协作的AI智能体框架最近在探索如何让大型语言模型(LLM)更高效地处理复杂任务,尤其是那些需要多步骤、多技能协作的软件开发工作。传统的单轮对话或简单指令往往难以产出结构完整、质量可靠的结果。正是在…...

边缘设备LLM推理性能与热管理对比研究

1. 边缘设备LLM推理性能与热管理对比研究概述在人工智能技术快速发展的今天,大型语言模型(LLM)的边缘部署已成为行业热点。将LLM直接部署在终端设备上,能够实现离线运行、降低延迟并保护用户隐私,这对需要持续响应用户查询的智能助手类应用尤…...

MoltGrid:为AI智能体提供记忆、任务与协作的后台基础设施

1. 项目概述:为什么我们需要一个独立的AI Agent基础设施?如果你和我一样,在过去一年里深度折腾过LangChain、CrewAI或者AutoGen,那你一定经历过这种场景:好不容易用几行代码搭起了一个能对话、能推理的智能体&#xff…...

CANN/metadef AscendString构造析构

AscendString构造函数和析构函数 【免费下载链接】metadef Ascend Metadata Definition 项目地址: https://gitcode.com/cann/metadef 函数功能 AscendString构造函数和析构函数。 函数原型 AscendString() default ~AscendString() default AscendString(const ch…...

拓扑量子计算的可扩展性挑战与Matryoshka链解决方案

1. 拓扑量子计算的可扩展性挑战 量子计算的可扩展性一直是该领域最核心的挑战之一。随着量子比特数量的增加,系统面临的退相干、噪声干扰和操控复杂度等问题呈指数级增长。传统量子计算架构通常需要为每个量子比特提供独立的物理隔离和操控系统,这在扩展…...

ARM虚拟化调试机制:HDFGWTR_EL2与HFGITR2_EL2详解

1. ARM虚拟化调试机制概述在ARMv8/v9架构的虚拟化环境中,Hypervisor(EL2)需要精细控制Guest OS(EL1)和用户态(EL0)对关键系统资源的访问。HDFGWTR_EL2(Hypervisor Debug Fine-Graine…...

从提示式到自发式:AI心智理论的范式转变与实现路径

1. 项目概述:从“被问才答”到“主动思考”的AI心智革命在人工智能领域,我们常常惊叹于模型在特定任务上的超人表现,无论是下棋、写诗还是解答复杂的数学问题。然而,当我们将这些智能体置于一个需要理解“人”的环境中时&#xff…...

Kitty终端工具集:GPU加速与配置即代码的现代开发者利器

1. 项目概述:一个面向开发者的现代化终端工具集最近在折腾开发环境,发现很多朋友还在用着系统自带的终端,或者一些功能相对基础的第三方工具。这让我想起自己几年前,为了提升命令行工作效率,花了不少时间寻找和配置终端…...

Claude Code 用户遭遇封号与 Token 不足时转向 Taotoken 的平滑迁移实践

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 Claude Code 用户遭遇封号与 Token 不足时转向 Taotoken 的平滑迁移实践 对于依赖 Claude Code 进行编程辅助的开发者而言&#xf…...

医疗AI跨学科协作:从数据科学到临床实践的全流程实践指南

1. 项目概述:当数据科学家遇上临床医生“跨学科医疗AI团队协作”,这个标题听起来既宏大又充满挑战。作为一个在医疗数据科学领域摸爬滚打了近十年的从业者,我深知这短短几个字背后,是无数个通宵达旦的会议、反复修改的模型、以及因…...