当前位置: 首页 > article >正文

cann-bench稀疏注意力算子API

SparseFlashAttention 算子 API 描述【免费下载链接】cann-bench评测AI在处理CANN领域代码任务的能力涵盖算子生成、算子优化等领域支撑模型选型、训练效果评估统一量化评估标准识别Agent能力短板构建CANN领域评测平台推动AI能力在CANN领域的持续演进。项目地址: https://gitcode.com/cann/cann-bench1. 算子简介大序列长度推理场景的高效稀疏注意力计算算子。与标准 FlashAttention 对全部 KV 位置计算注意力不同SparseFlashAttention 通过sparseIndices指定每个 query 位置需要关注的 KV 子集仅对选中的 KV 位置执行缩放点积注意力从而降低计算和内存开销。支持 Grouped Query AttentionGQAquery 头数 N1 可以大于 KV 头数 N2要求 N1 整除 N2每 N1/N2 个 query 头共享同一组 KV 头及其稀疏索引。同时支持 query/key 和 value 使用不同的 head dimDk 和 Dv。主要应用场景大语言模型长序列推理中的高效注意力计算长文本理解与生成任务中降低注意力计算复杂度从 O(S1×S2) 降至 O(S1×topK)需要稀疏注意力模式的 Transformer 推理加速GQA / MLA 架构下的稀疏注意力算子特征难度等级L4FusedComposite四输入query, key, value, sparseIndices单输出融合稀疏索引 gather、缩放点积注意力与 softmax 计算支持 GQAN1 ≥ N2N1 % N2 0和不同 head dimDk、Dv支持 BSND 和 BNSD 两种张量布局2. 算子定义稀疏机制对于每个 KV 头组(b, n2, s1)sparseIndices中对应位置给出该 query 需要关注的 topK 个 KV 序列位置索引值域[0, S2)。该组内的 N1/N2 个 query 头共享相同的稀疏索引attention 计算仅在这 topK 个选中的 KV 位置上进行。sparseIndices的前三维布局与inputLayout一致BSND 布局sparseIndices shape 为[B, S1, N2, topK]BNSD 布局sparseIndices shape 为[B, N2, S1, topK]数学公式$$ K_{sel} \text{gather}(K, \text{sparseIndices}) \quad V_{sel} \text{gather}(V, \text{sparseIndices}) $$$$ y \text{softmax}\left(Q \times K_{sel}^T \times \text{scaleValue}\right) \times V_{sel} $$具体子步骤稀疏 Gather根据sparseIndices从 key/value 中提取选中的 KV 子集以 BNSD 为例$K_{sel}[b, n2, s1, i, :] K[b, n2, \text{sparseIndices}[b, n2, s1, i], :]$shape[B, N2, S1, topK, Dk]$V_{sel}$ 同理shape[B, N2, S1, topK, Dv]GQA 扩展将K_sel和V_sel沿 head 维度复制 GN1/N2 次扩展到[B, N1, S1, topK, ...]缩放点积$\text{scores} Q \cdot K_{sel}^T \times \text{scaleValue}$shape[B, N1, S1, topK]Softmax 归一化$\text{attn_weights} \text{softmax}(\text{scores}, \text{dim}-1)$在 topK 维上归一化加权求和$y \text{attn_weights} \times V_{sel}$布局说明inputLayoutquerykeyvaluesparseIndicesoutputBSND[B, S1, N1, Dk][B, S2, N2, Dk][B, S2, N2, Dv][B, S1, N2, topK][B, S1, N1, Dv]BNSD[B, N1, S1, Dk][B, N2, S2, Dk][B, N2, S2, Dv][B, N2, S1, topK][B, N1, S1, Dv]与标准 FlashAttention 的区别项目FlashAttentionSparseFlashAttention注意力范围全部 S2 个 KV 位置sparseIndices 指定的 topK 个 KV 位置计算复杂度O(S1 × S2 × D)O(S1 × topK × D)topK S2额外输入无sparseIndicessoftmax 范围S2 维topK 维仅选中的 KV 位置GQA 支持是是N1 % N2 0head dimQ/K 共享 DkV 可用不同 Dv同左3. 接口规范算子原型sparse_flash_attention(Tensor query, Tensor key, Tensor value, Tensor sparseIndices, float scaleValue, str inputLayoutBSND) - Tensor y输入参数说明参数类型必需dtypeshape描述queryTensor是float16/bfloat16BSND: [B, S1, N1, Dk]BNSD: [B, N1, S1, Dk]查询张量keyTensor是float16/bfloat16BSND: [B, S2, N2, Dk]BNSD: [B, N2, S2, Dk]键张量head dim 与 query 一致valueTensor是float16/bfloat16BSND: [B, S2, N2, Dv]BNSD: [B, N2, S2, Dv]值张量head dim 可与 key 不同sparseIndicesTensor是int32BSND: [B, S1, N2, topK]BNSD: [B, N2, S1, topK]按 KV 头分组的稀疏索引前三维布局与 inputLayout 一致scaleValuefloat是-标量缩放因子通常为 1/sqrt(Dk)inputLayoutstr否--张量布局格式BSND默认或 BNSD输出参数dtypeshape描述y与 query 一致BSND: [B, S1, N1, Dv]BNSD: [B, N1, S1, Dv]稀疏注意力输出布局与输入一致数据类型query/key/value dtypesparseIndices dtype输出 dtypebfloat16int32bfloat16float16int32float16规则与约束query、key、value 的 dtype 必须一致query 和 key 的 head dim 必须一致Dkvalue 的 head dimDv可以不同N1 必须整除 N2GQA 分组约束N1 N2 时退化为 MHAsparseIndices 的值域为[0, S2)即 KV 序列长度范围内的有效索引topK每个 query 关注的 KV 数量可任意取值1 ≤ topK ≤ S2scaleValue 通常设置为 $1/\sqrt{Dk}$inputLayout 必须为 BSND 或 BNSD所有张量含 sparseIndices 和输出的布局保持一致4. 精度要求采用生态算子精度标准进行验证。误差指标平均相对误差MERE采样点中相对误差平均值$$ \text{MERE} \text{avg}(\frac{\text{abs}(actual - golden)}{\text{abs}(golden)\text{1e-7}}) $$最大相对误差MARE采样点中相对误差最大值$$ \text{MARE} \max(\frac{\text{abs}(actual - golden)}{\text{abs}(golden)\text{1e-7}}) $$通过标准数据类型FLOAT16BFLOAT16FLOAT32HiFLOAT32FLOAT8 E4M3FLOAT8 E5M2通过阈值(Threshold)2^-102^-72^-132^-112^-32^-2当平均相对误差 MERE Threshold最大相对误差 MARE 10 * Threshold 时判定为通过。5. 标准 Golden 代码import torch def sparse_flash_attention( query: torch.Tensor, key: torch.Tensor, value: torch.Tensor, sparseIndices: torch.Tensor, scaleValue: float, inputLayout: str BSND, ) - torch.Tensor: 稀疏 FlashAttention支持 GQA、不同 head dim 和 BSND/BNSD 布局 Args: query: 查询张量BSND: [B, S1, N1, Dk]BNSD: [B, N1, S1, Dk] key: 键张量BSND: [B, S2, N2, Dk]BNSD: [B, N2, S2, Dk] value: 值张量BSND: [B, S2, N2, Dv]BNSD: [B, N2, S2, Dv] sparseIndices: 稀疏索引int32BSND: [B, S1, N2, topK]BNSD: [B, N2, S1, topK] scaleValue: 缩放因子 inputLayout: 张量布局BSND 或 BNSD Returns: 注意力输出布局与输入一致 # 统一转为 BNSD 内部计算 if inputLayout BSND: q query.permute(0, 2, 1, 3) # [B, N1, S1, Dk] k key.permute(0, 2, 1, 3) # [B, N2, S2, Dk] v value.permute(0, 2, 1, 3) # [B, N2, S2, Dv] si sparseIndices.permute(0, 2, 1, 3) # [B, N2, S1, topK] else: # BNSD q, k, v, si query, key, value, sparseIndices B, N1, S1, Dk q.shape N2 k.shape[1] S2 k.shape[2] Dv v.shape[-1] topK si.shape[-1] G N1 // N2 # sparseIndices 为 int32转为 long 用于 gather si si.long() # Gather 选中的 KV: si [B, N2, S1, topK] idx_k si.reshape(B, N2, S1 * topK).unsqueeze(-1).expand(-1, -1, -1, Dk) idx_v si.reshape(B, N2, S1 * topK).unsqueeze(-1).expand(-1, -1, -1, Dv) k_sel k.gather(2, idx_k).reshape(B, N2, S1, topK, Dk) # [B, N2, S1, topK, Dk] v_sel v.gather(2, idx_v).reshape(B, N2, S1, topK, Dv) # [B, N2, S1, topK, Dv] # GQA: 将 KV 头扩展到 N1 个 query 头 k_sel k_sel.unsqueeze(2).expand(-1, -1, G, -1, -1, -1).reshape(B, N1, S1, topK, Dk) v_sel v_sel.unsqueeze(2).expand(-1, -1, G, -1, -1, -1).reshape(B, N1, S1, topK, Dv) # Attention: Q K_sel^T - softmax - V_sel scores torch.einsum(bnsd,bnskd-bnsk, q, k_sel) * scaleValue attn_weights torch.softmax(scores, dim-1) out torch.einsum(bnsk,bnskd-bnsd, attn_weights, v_sel) # [B, N1, S1, Dv] # 转回原始布局 if inputLayout BSND: return out.permute(0, 2, 1, 3) # [B, S1, N1, Dv] else: return out # [B, N1, S1, Dv]6. 额外信息算子调用示例import torch B, S1, S2, N1, N2, Dk, Dv, topK 2, 1024, 8192, 32, 8, 128, 128, 512 # BSND 布局 query torch.randn(B, S1, N1, Dk, dtypetorch.float16, devicenpu) key torch.randn(B, S2, N2, Dk, dtypetorch.float16, devicenpu) value torch.randn(B, S2, N2, Dv, dtypetorch.float16, devicenpu) sparseIndices torch.stack([ torch.randperm(S2)[:topK] for _ in range(B * N2 * S1) ]).reshape(B, S1, N2, topK).to(dtypetorch.int32, devicenpu) y sparse_flash_attention(query, key, value, sparseIndices, scaleValue1.0 / (Dk ** 0.5), inputLayoutBSND) # y.shape: [B, S1, N1, Dv]【免费下载链接】cann-bench评测AI在处理CANN领域代码任务的能力涵盖算子生成、算子优化等领域支撑模型选型、训练效果评估统一量化评估标准识别Agent能力短板构建CANN领域评测平台推动AI能力在CANN领域的持续演进。项目地址: https://gitcode.com/cann/cann-bench创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

相关文章:

cann-bench稀疏注意力算子API

SparseFlashAttention 算子 API 描述 【免费下载链接】cann-bench 评测AI在处理CANN领域代码任务的能力,涵盖算子生成、算子优化等领域,支撑模型选型、训练效果评估,统一量化评估标准,识别Agent能力短板,构建CANN领域评…...

社交媒体图像生成评估:ECHO框架解析与应用

1. 项目背景与核心价值社交媒体平台每天产生数以亿计的图像数据,这些用户生成内容(UGC)蕴含着丰富的视觉表达模式和创意元素。传统图像生成基准数据集往往基于静态、人工标注的图片库,难以反映真实场景中动态变化的视觉趋势。ECHO框架的提出,…...

AI如何成为创意催化剂:从技术工具到内省伙伴的实践指南

1. 项目概述:当画笔遇见算法作为一名在数字艺术与创意科技交叉领域摸索了十多年的创作者,我亲历了从传统手绘板到生成式AI的整个技术浪潮。最初,我和许多同行一样,对“AI艺术”抱有复杂的情绪——它究竟是解放创造力的神兵利器&am…...

AI结构性风险:超越事故与滥用,解码技术与社会系统的复杂互动

1. 项目概述:当AI不再是“工具”我们谈论AI风险时,脑子里最先蹦出来的,往往是那些极具戏剧性的画面:自动驾驶汽车失控撞向人群,或是某个心怀叵测的黑客利用AI生成病毒,发动大规模网络攻击。这类风险&#x…...

MongoDB索引优化实战:让查询飞起来

写在前面:索引是数据库查询性能的关键,MongoDB提供了丰富的索引类型来满足不同场景的需求。本篇将详细介绍MongoDB索引的创建、使用、管理和优化技巧,帮助您打造高效的MongoDB查询。 文章目录一、索引基础概念1.1 什么是索引?1.2 …...

CANN Qwen Dense推理优化

基于Atlas A2/A3的Qwen Dense模型推理性能优化实践 【免费下载链接】cann-recipes-infer 本项目针对LLM与多模态模型推理业务中的典型模型、加速算法,提供基于CANN平台的优化样例 项目地址: https://gitcode.com/cann/cann-recipes-infer 概述 本文主要介绍…...

ExGRPO框架:强化学习中的动态经验重放优化

1. ExGRPO框架解析:平衡探索与经验重放的强化学习新范式在强化学习领域,样本效率一直是制约算法性能的关键瓶颈。特别是在大语言模型(LLM)的强化学习微调(RLHF)场景中,每个样本的获取成本可能高…...

在Taotoken控制台中管理API密钥并设置访问控制策略

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 在Taotoken控制台中管理API密钥并设置访问控制策略 对于团队管理员或项目负责人而言,统一、安全地管理大模型API访问权…...

FFmpeg视频批量裁剪:从原理到Python自动化实现

1. 项目概述与核心价值最近在整理一批视频素材时,遇到了一个挺典型的场景:我需要把一段16:9的横屏视频,快速裁剪成9:16的竖屏版本,用于短视频平台发布。手动用桌面软件打开、设置裁剪区域、导出,一两个视频还行&#x…...

CANN/opbase快速入门指南

快速入门 【免费下载链接】opbase 本项目是CANN算子库的基础框架库,为算子提供公共依赖文件和基础调度能力。 项目地址: https://gitcode.com/cann/opbase 快速体验项目前,请参考本项目README完成环境准备和源码下载,此处不再赘述。 …...

通过Taotoken CLI工具一键配置团队开发环境中的大模型接入点

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 通过Taotoken CLI工具一键配置团队开发环境中的大模型接入点 当团队开始将大模型能力集成到开发流程中时,一个常见的挑…...

R语言决策树非线性回归建模与优化实战

1. 决策树在R语言中的非线性回归实战作为一名长期使用R语言进行数据建模的分析师,我发现在处理复杂非线性关系时,决策树往往能提供传统线性方法无法比拟的灵活性。今天就来分享如何用R中的决策树算法实现非线性回归任务,以及我在实际项目中积…...

XUnity.AutoTranslator终极教程:如何为Unity游戏实现实时自动翻译

XUnity.AutoTranslator终极教程:如何为Unity游戏实现实时自动翻译 【免费下载链接】XUnity.AutoTranslator 项目地址: https://gitcode.com/gh_mirrors/xu/XUnity.AutoTranslator 你是否曾经因为语言障碍而无法畅玩心爱的日系RPG或欧美独立游戏?…...

Arm架构PFDI接口:硬件故障检测与固件完整性检查

1. PFDI接口架构解析PFDI(Platform Fault Detection Interface)是Arm架构中一套标准化的硬件故障检测接口规范,它为系统软件(如操作系统或Hypervisor)提供了访问底层硬件测试能力的统一方法。这套接口运行在EL3特权级&…...

生成式AI早期采纳研究:教育是弥合数字鸿沟的关键

1. 项目概述:当生成式AI撞上旧有的社会断层线ChatGPT横空出世那会儿,我和很多圈内朋友一样,兴奋地讨论着这个“新玩具”能怎么改变我们的工作流。写代码、做策划、处理文档,效率肉眼可见地提升。但很快,一个更现实、也…...

CANN/pyasc图像加载API

asc.language.basic.load_image_to_local 【免费下载链接】pyasc 本项目为Python用户提供算子编程接口,支持在昇腾AI处理器上加速计算,接口与Ascend C一一对应并遵守Python原生语法。 项目地址: https://gitcode.com/cann/pyasc asc.language.bas…...

Voxtral-4B-TTS-2603部署案例:AI初创公司构建语音内容工厂,日均生成5000+分钟语音

Voxtral-4B-TTS-2603部署案例:AI初创公司构建语音内容工厂,日均生成5000分钟语音 1. 项目背景与挑战 一家专注于AI语音技术的初创公司面临着一个典型的生产力瓶颈:他们的客户需要大量高质量的语音内容用于教育、营销和客服场景,…...

教育AI信任构建:以透明度与可解释性化解多利益相关者冲突

1. 项目概述:当AI走进课堂,我们到底在担心什么?最近几年,教育领域里关于AI的讨论热度一直没降下来。从最初的智能题库、自适应学习系统,到如今能批改作文、模拟对话的生成式AI,技术迭代的速度远超我们的想象…...

CANN/cann-bench 分组矩阵乘量化融合算子评测

GroupedMatmulSwigluQuant 算子 API 描述 【免费下载链接】cann-bench 评测AI在处理CANN领域代码任务的能力,涵盖算子生成、算子优化等领域,支撑模型选型、训练效果评估,统一量化评估标准,识别Agent能力短板,构建CANN领…...

开箱即用!Gemma-3-12B-IT WebUI一键部署与使用指南

开箱即用!Gemma-3-12B-IT WebUI一键部署与使用指南 1. 项目概述 Gemma-3-12B-IT是Google最新推出的第三代开源大语言模型,相比前两代在推理能力、多语言支持和运行效率上都有显著提升。这个120亿参数的模型在性能和部署成本间取得了良好平衡&#xff0…...

零代码体验Meta-Llama-3-8B-Instruct:快速搭建对话界面

零代码体验Meta-Llama-3-8B-Instruct:快速搭建对话界面 1. 引言 你是否曾经想体验最新的大语言模型,却被复杂的部署流程和代码要求劝退?今天,我将带你通过一个预置镜像,零代码快速搭建Meta-Llama-3-8B-Instruct的对话…...

低资源语言AI写作助手:数据质量与微调策略的工程实践

1. 项目概述:当AI遇见濒危语言在自然语言处理(NLP)领域,我们常常谈论的是如何用海量数据训练出更强大的模型。但当我们将目光投向全球数千种使用人数稀少的低资源语言,尤其是那些面临传承危机的濒危语言时,…...

Phi-4-mini-reasoning 3.8B 网络协议分析助手:智能化解读与故障模拟

Phi-4-mini-reasoning 3.8B 网络协议分析助手:智能化解读与故障模拟 1. 网络协议分析的智能革命 网络工程师的日常工作总是伴随着海量的数据包和复杂的协议分析。传统工具虽然功能强大,但学习曲线陡峭,新手往往需要花费数月时间才能熟练使用…...

华为CANN/hcomm内存注册API

HcommMemReg 【免费下载链接】hcomm HCOMM(Huawei Communication)是HCCL的通信基础库,提供通信域以及通信资源的管理能力。 项目地址: https://gitcode.com/cann/hcomm 产品支持情况 Ascend 950PR/Ascend 950DT:支持Atlas…...

OpenClaw文件访问控制插件:构建AI代理安全防护层

1. 项目概述:为OpenClaw构建文件访问控制层 如果你正在运行一个多用户的OpenClaw智能体,尤其是在Slack、Discord这类团队协作平台上,一个核心的安全隐患会立刻浮现:聊天室里的任何一个人,都可以直接要求AI去修改你的技…...

数据要素化与资产化:个人和企业的数据如何产生价值?

——软件测试从业者的专业视角在软件测试领域深耕多年,我们曾将测试数据简单视作“用例的输入”,一种用完即弃的消耗品。然而,当“数据”被提升至与土地、劳动力、资本、技术并列的第五大生产要素时,一个全新的价值坐标系正在展开…...

硬件补贴、软件盈利:互联网商业模式的再次轮回?——从软件测试视角看生态闭环与质量博弈

一、轮回的轮廓:当硬件变成“管道”,软件成为“水龙头”“硬件补贴、软件盈利”并不是一个新鲜命题。早在十多年前,电信运营商就曾用“存话费送手机”开启了终端补贴的浪潮,随后互联网电视、智能音箱、网约车硬件(如车…...

Pandas数据分析避坑指南:用Hampel Filter优雅处理金融时间序列里的‘毛刺’

Pandas数据分析避坑指南:用Hampel Filter优雅处理金融时间序列里的‘毛刺’ 金融数据分析师们每天都要面对海量的市场数据,但真正让人头疼的往往不是数据的规模,而是那些隐藏在时间序列中的"小刺"——那些突如其来的价格毛刺&#…...

CANN/amct压缩概念详解

压缩概念 【免费下载链接】amct AMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。 项目地址: https://gitcode.com/cann/amct 本节给出模型压缩过程中用到的概念,并介绍了不同压缩方法的原理。 量化 量化是指对模型的权重(weight&#xff0…...

我们团队引入AI测试后,测试人员从10人缩减到3人

“我们团队引入AI测试后,测试人员从10人缩减到3人。”这句话,在2026年的今天,已不再是科幻小说的情节,也不是某个技术峰会上遥远的预言,而是切切实实发生在我们身边、令无数软件测试从业者深夜辗转反侧的行业现实。它像…...