当前位置: 首页 > article >正文

CANN/ops-math矩阵乘法压缩反量化算子

aclnnMatmulCompressDequant【免费下载链接】ops-math本项目是CANN提供的数学类基础计算算子库实现网络在NPU上加速计算。项目地址: https://gitcode.com/cann/ops-math 查看源码产品支持情况产品是否支持Ascend 950PR/Ascend 950DT×Atlas A3 训练系列产品/Atlas A3 推理系列产品×Atlas A2 训练系列产品/Atlas A2 推理系列产品×Atlas 200I/500 A2 推理产品×Atlas 推理系列产品√Atlas 训练系列产品×Atlas 200/300/500 推理产品×功能说明接口功能进行lr矩阵乘计算时可先通过msModelSlim工具对r矩阵进行无损压缩减少r矩阵的内存占用大小然后通过本接口完成无损解压缩、矩阵乘、反量化计算。计算公式$$ x2_unzip unzip(x2, compressIndex, compressInfo)\ result(x1 x2_unzip bias)*deqScale $$其中x2表示r矩阵经过msModelSlim工具进行压缩后的一维数据compressIndex以及compressInfo表示压缩算法相关的信息$x2_unzip$是本接口内部进行无损解压缩后的数据与原始r矩阵数据一致压缩和调用本接口的详细使用样例参考调用示例。函数原型每个算子分为两段式接口必须先调用“aclnnMatmulCompressDequantGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器再调用“aclnnMatmulCompressDequant”接口执行计算。aclnnStatus aclnnMatmulCompressDequantGetWorkspaceSize( const aclTensor* x1, const aclTensor* x2, const aclTensor* compressIndex, const aclTensor* bias, const aclTensor* deqScale, const aclTensor* offsetW, int offsetX, const aclIntArray* compressInfo, aclTensor* out, uint64_t* workspaceSize, aclOpExecutor** executor)aclnnStatus aclnnMatmulCompressDequant( void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)aclnnMatmulCompressDequantGetWorkspaceSize参数说明参数名输入/输出描述使用说明数据类型数据格式维度(shape)非连续tensorx1输入表示矩阵乘的左输入。-INT8ND2-x2输入表示压缩后的矩阵乘的右输入为通过msModelSlim工具中weight_compression模块压缩后的输入。-INT8ND1-compressIndex输入表示矩阵乘右输入的压缩索引表。通过示例中的msModelSlim工具中获取INT8ND1-bias输入参与矩阵乘计算的偏置项。支持空指针传入。INT8ND2维shape仅支持(1, n)或者(n)其中n为输出shape(m, n)的n-deqScale输入表示反量化参数。tensor中的值为float通过下述示例中转换后的UINT64的数据。UINT64ND2维shape支持(1, n)或者(1, 1), 其中n为输出shape(m, n)中的n。-offsetW输入标量表示矩阵乘右输入的偏移量。当前仅支持空指针传入。INT8-与x2_unzip一致。-offsetX输入标量表示矩阵乘左输入的偏移量。当前仅支持0。INT32---compressInfo输入整型数据列表数据类型为INT64。其中包括压缩块信息tilingN、tilingK通过msModelSlim工具中weight_compression模块压缩后获取分别表示压缩前shape(n, k)在n方向和k方向上一个基本压缩块的大小压缩前x2矩阵原始shapeshape为2维用(n, k)表示以及压缩块遍历方向的标识。-INT64---out输出计算输出。-FLOAT16ND2-workspaceSize出参返回需要在Device侧申请的workspace大小。-----executor出参返回op执行器包含了算子计算流程。-----返回值aclnnStatus返回状态码具体参见aclnn返回码。第一段接口完成入参校验出现以下场景时报错返回值错误码描述ACLNN_ERR_PARAM_NULLPTR161001传入的x1、x2或out是空指针。ACLNN_ERR_PARAM_INVALID161002x1或x2的数据类型和数据格式不在支持的范围之内。x1或x2无法做数据类型推导。推导出的数据类型无法转换为指定输出out的类型。aclnnMatmulCompressDequant参数说明参数名输入/输出描述workspace输入在Device侧申请的workspace内存地址。workspaceSize输入在Device侧申请的workspace大小由第一段接口aclnnMatmulCompressDequantGetWorkspaceSize获取。executor输入op执行器包含了算子计算流程。stream输入指定执行任务的Stream。返回值aclnnStatus返回状态码具体参见aclnn返回码。约束说明确定性计算aclnnMatmulCompressDequant默认确定性实现。调用示例准备压缩前的数据假设通过脚本gen_data.py生成输入数据示例如下仅供参考import numpy as np import os import sys from numpy import random def write2file(data, path): with open(path, wb) as f: data.tofile(f) if not os.path.exists(./data): os.mkdir(./data) if len(sys.argv) ! 4: print(Usage: python gen_data.py m k n) sys.exit(1) m int(sys.argv[1]) k int(sys.argv[2]) n int(sys.argv[3]) if m 0 or k 0 or n 0: print(Error: m, k and n must be positive integers.) sys.exit(1) # 随机生成矩阵mat1shape为(m,k ) mat1 random.randn(m, k).astype(np.int8) write2file(mat1, ./data/mat1.bin) # 随机生成矩阵mat2shape为(n, k) mat2 random.randint(0, 100, size(n, k)).astype(np.int8) np.save(./data/weight.npy, {weight: mat2}) os.chmod(./data/weight.npy, 0o0640) # 生成output output np.random.randn(m, n).astype(np.float16) write2file(output, ./data/output.bin) # 生成bias bias random.randn(n).astype(np.float32) write2file(bias, ./data/bias.bin) # 生成deq_scale deq_scale random.randn(n).astype(np.float32) write2file(deq_scale, ./data/deqScale_ori.bin) deq_scale_int64 np.fromfile(./data/deqScale_ori.bin, dtypenp.int32).astype(np.int64) deq_scale_int64.tofile(./data/deqScale.bin)执行gen_data.py假设mat1和mat2的shape入参为m512、k1024、n1024。python3 gen_data.py 512 1024 1024对数据进行预处理原始权重通过msModelSlim压缩工具生成压缩后的x2、compressIndex以及compressInfo使用以下接口时需对CANN包中msModelSlim压缩工具进行编译具体操作参考Gitee msit仓中msmodelslim/pytorch/weight_compression目录下的README.md。from msmodelslim.pytorch.weight_compression import CompressConfig, Compressor compress_config CompressConfig(do_pseudo_sparseFalse, sparse_ratio1) compressor Compressor(compress_config, weight_pathweight_path) compress_weight, compress_index, compress_info compressor.run() # 压缩后的权重对应aclnnMatmulCompressDequantGetWorkspaceSize接口的x2 compressor.export(compress_weight, ./data/weight) # 压缩权重的索引对应aclnnMatmulCompressDequantGetWorkspaceSize接口的compressIndex compressor.export(compress_index, ./data/index) # 压缩数据的相关信息对应aclnnMatmulCompressDequantGetWorkspaceSize接口的compressInfo compressor.export(compress_info, ./data/compress_info)将原始float类型的反量化参数deqscale进行转换 得到aclnn接口需要的uint64数据deqScale原始为float类型以int32读取并转换为int64import numpy as np data np.fromfile(./deqScale_original.bin, dtypenp.int32).astype(np.int64) data.tofile(./deqScale.bin)调用aclnn接口运算示例代码如下仅供参考具体编译和执行过程请参考编译与运行样例。#include iostream #include vector #include acl/acl.h #include aclnnop/aclnn_matmul_compress_dequant.h #include fstream #include unistd.h #include sys/stat.h #include stdio.h #include cstdlib #include string #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vectorint64_t shape) { int64_t shapeSize 1; for (auto i : shape) { shapeSize * i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream* stream) { // 固定写法资源初始化 auto ret aclInit(nullptr); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclInit failed. ERROR: %d\n, ret); return ret); ret aclrtSetDevice(deviceId); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclrtSetDevice failed. ERROR: %d\n, ret); return ret); ret aclrtCreateStream(stream); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclrtCreateStream failed. ERROR: %d\n, ret); return ret); return 0; } int ReadBinFileNNop(std::string filePath, void* buffer, size_t bufferSize) { struct stat sBuf; int fileStatus stat(filePath.data(), sBuf); CHECK_RET(fileStatus ACL_SUCCESS, LOG_PRINT(Failed to get file %s\n, filePath); return -1); std::ifstream file; file.open(filePath, std::ios::binary); CHECK_RET(file.is_open(), LOG_PRINT(Open file failed.\n); return -1); file.seekg(0, file.end); uint64_t binFileBufferLen file.tellg(); CHECK_RET(binFileBufferLen 0, std::coutFile size is 0.\n; file.close(); return -1); file.seekg(0, file.beg); file.read(static_castchar *(buffer), binFileBufferLen); file.close(); return ACL_SUCCESS; } int CreateAclTensor(std::string filePath, const std::vectorint64_t shape, int typeSize, void** deviceAddr, aclDataType dataType, aclTensor** tensor) { auto size GetShapeSize(shape) * typeSize; // 调用aclrtMalloc申请device侧内存 auto ret aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclrtMalloc failed. ERROR: %d\n, ret); return ret); // 调用aclrtMallocHost申请host侧内存 void* binBufferHost nullptr; ret aclrtMallocHost(binBufferHost, size); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclrtMallocHost failed. ERROR: %d\n, ret); return ret); // 读取文件 ret ReadBinFileNNop(filePath, binBufferHost, size); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(ReadBinFileNNop failed. ERROR: %d\n, ret); return ret); // 调用aclrtMemcpy将host侧数据拷贝到device侧内存上 ret aclrtMemcpy(*deviceAddr, size, binBufferHost, size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclrtMemcpy failed. ERROR: %d\n, ret); return ret); // 计算连续tensor的strides std::vectorint64_t strides(shape.size(), 1); for (int64_t i shape.size() - 2; i 0; i--) { strides[i] shape[i 1] * strides[i 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main(int argc, char* argv[]) { // 1. 固定写法device/stream初始化参考acl API手册 // 根据自己的实际device填写deviceId int32_t deviceId 0; aclrtStream stream; auto ret Init(deviceId, stream); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(Init acl failed. ERROR: %d\n, ret); return ret); if (argc ! 6) { std::cerr Error: Invalid number of arguments. Usage: program m k n wCompressedSize indexSize std::endl; return -1; } // 2. 构造输入与输出需要根据API的接口自定义构造 int m atoi(argv[1]); int k atoi(argv[2]); int n atoi(argv[3]); // wShape是右矩阵压缩后数据的大小 int wCompressedSize atoi(argv[4]); // indexShape是压缩索引数据的大小 int indexSize atoi(argv[5]); if (m 0 || k 0 || n 0 || wCompressedSize 0 || indexSize 0) { std::cerr Error: m, k, n, wCompressedSize and indexSize must be positive integers. std::endl; return -1; } std::vectorint64_t mat1Shape {m, k}; std::vectorint64_t mat2CompressedShape {wCompressedSize}; std::vectorint64_t indexShape {indexSize}; std::vectorint64_t biasShape {n}; std::vectorint64_t deqScaleShape {n}; std::vectorint64_t outputShape {m, n}; std::vectorint64_t compressInfoHostData {8, 8, k, n, 1}; void* mat1DeviceAddr nullptr; void* mat2CompressedDeviceAddr nullptr; void* indexDeviceAddr nullptr; void* biasDeviceAddr nullptr; void* deqScaleDeviceAddr nullptr; void* outputDeviceAddr nullptr; aclTensor* mat1 nullptr; aclTensor* mat2Compressed nullptr; aclTensor* index nullptr; aclTensor* bias nullptr; aclTensor* deqScale nullptr; aclTensor* output nullptr; aclIntArray* compressInfo nullptr; std::string rootPath ./data/; // 创建mat1 aclTensor std::string mat1FilePath rootPath mat1.bin; ret CreateAclTensor(mat1FilePath, mat1Shape, sizeof(int8_t), mat1DeviceAddr, aclDataType::ACL_INT8, mat1); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(Create mat1 tensor failed. ERROR: %d\n, ret); return ret); // 创建mat2Compressed aclTensor std::string mat2FilePath rootPath weight/weight.dat; ret CreateAclTensor(mat2FilePath, mat2CompressedShape, sizeof(int8_t), mat2CompressedDeviceAddr, aclDataType::ACL_INT8, mat2Compressed); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(Create mat2 tensor failed. ERROR: %d\n, ret); return ret); // 创建index aclTensor std::string indexFilePath rootPath index/weight.dat; ret CreateAclTensor(indexFilePath, indexShape, sizeof(int8_t), indexDeviceAddr, aclDataType::ACL_INT8, index); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(Create index tensor failed. ERROR: %d\n, ret); return ret); // 创建bias aclTensor std::string biasFilePath rootPath bias.bin; ret CreateAclTensor(biasFilePath, biasShape, sizeof(int32_t), biasDeviceAddr, aclDataType::ACL_INT32, bias); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(Create bias tensor failed. ERROR: %d\n, ret); return ret); // 创建deqScale aclTensor std::string deqScaleFilePath rootPath deqScale.bin; ret CreateAclTensor(deqScaleFilePath, deqScaleShape, sizeof(int32_t), deqScaleDeviceAddr, aclDataType::ACL_UINT64, deqScale); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(Create deqScale tensor failed. ERROR: %d\n, ret); return ret); // 创建compressInfo compressInfo aclCreateIntArray(compressInfoHostData.data(), aclDataType::ACL_INT64); // 创建out aclTensor std::string outputFilePath rootPath output.bin; ret CreateAclTensor(outputFilePath, outputShape, 2, outputDeviceAddr, aclDataType::ACL_FLOAT16, output); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(Create output tensor failed. ERROR: %d\n, ret); return ret); int32_t offsetX 0; // 3. 调用CANN算子库API需要修改为具体的Api名称 uint64_t workspaceSize 0; aclOpExecutor* executor; // 调用aclnnMm第一段接口 ret aclnnMatmulCompressDequantGetWorkspaceSize(mat1, mat2Compressed, index, bias, deqScale, nullptr, offsetX, compressInfo, output, workspaceSize, executor); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclnnMatmulCompressDequantGetWorkspaceSize failed. ERROR: %d\n, ret); return ret); // 根据第一段接口计算出的workspaceSize申请device内存 void* workspaceAddr nullptr; if (workspaceSize 0) { ret aclrtMalloc(workspaceAddr, workspaceSize, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(allocate workspace failed. ERROR: %d\n, ret); return ret); } // 调用aclnnMm第二段接口 ret aclnnMatmulCompressDequant(workspaceAddr, workspaceSize, executor, stream); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclnnMatmulCompressDequant failed. ERROR: %d\n, ret); return ret); // 4. 固定写法同步等待任务执行结束 ret aclrtSynchronizeStream(stream); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(aclrtSynchronizeStream failed. ERROR: %d\n, ret); return ret); // 5. 获取输出的值将device侧内存上的结果拷贝至host侧需要根据具体API的接口定义修改 auto size GetShapeSize(outputShape); std::vectorfloat resultData(size, 0); ret aclrtMemcpy(resultData.data(), resultData.size() * sizeof(resultData[0]), outputDeviceAddr, size * sizeof(resultData[0]), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret ACL_SUCCESS, LOG_PRINT(copy result from device to host failed. ERROR: %d\n, ret); return ret); for (int64_t i 0; i size; i) { LOG_PRINT(result[%ld] is: %f\n, i, resultData[i]); } // 6. 释放aclTensor和aclScalar需要根据具体API的接口定义修改 aclDestroyTensor(mat1); aclDestroyTensor(mat2Compressed); aclDestroyTensor(index); aclDestroyTensor(bias); aclDestroyTensor(deqScale); aclDestroyTensor(output); aclDestroyIntArray(compressInfo); // 7.释放硬件资源需要根据具体API的接口定义修改 aclrtFree(mat1DeviceAddr); aclrtFree(mat2CompressedDeviceAddr); aclrtFree(indexDeviceAddr); aclrtFree(biasDeviceAddr); aclrtFree(deqScaleDeviceAddr); aclrtFree(outputDeviceAddr); if (workspaceSize 0) { aclrtFree(workspaceAddr); } aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }【免费下载链接】ops-math本项目是CANN提供的数学类基础计算算子库实现网络在NPU上加速计算。项目地址: https://gitcode.com/cann/ops-math创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

相关文章:

CANN/ops-math矩阵乘法压缩反量化算子

aclnnMatmulCompressDequant 【免费下载链接】ops-math 本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-math 📄 查看源码 产品支持情况 产品是否支持Ascend 950PR/Ascend 950DTAt…...

CANN KV压缩Epilog算子

custom-npu_kv_compress_epilog 【免费下载链接】cann-recipes-infer 本项目针对LLM与多模态模型推理业务中的典型模型、加速算法,提供基于CANN平台的优化样例 项目地址: https://gitcode.com/cann/cann-recipes-infer 产品支持情况 产品是否支持Ascend 950…...

SQL PIVOT原理与实战:从行转列到高性能宽表生成

1. 项目概述:从“行变列”开始,真正搞懂SQL PIVOT不是语法糖,而是数据思维的分水岭你有没有遇到过这样的报表需求:销售表里每条记录是一笔订单(客户名、产品名、金额、日期),但老板要的却是“每…...

CANN/asc-tools msopgen算子模板样例

【免费下载链接】asc-tools Ascend C Tools仓是CANN基于Ascend C编程语言推出的配套调试工具仓。 项目地址: https://gitcode.com/cann/asc-tools msopgen使用新自定义算子工程模板样例 概述 本样例介绍msopgen工具按照新算子工程模板生成新自定义算子工程。以AddCust…...

2025最权威的降重复率神器实际效果

Ai论文网站排名(开题报告、文献综述、降aigc率、降重综合对比) TOP1. 千笔AI TOP2. aipasspaper TOP3. 清北论文 TOP4. 豆包 TOP5. kimi TOP6. deepseek 对于AI生成内容容易被检测出来的这个问题,现如今已经存在专门用来降低文本AI率的…...

GPT-3.5在独裁者游戏中的公平性实验:AI决策的统计模式与伦理启示

1. 项目概述:当AI成为“裁判”,公平性如何定义?最近在翻看一些行为经济学和博弈论的资料时,一个经典的实验模型——“独裁者游戏”——反复出现在眼前。这个实验很简单:两个人,一笔钱。一个人是“独裁者”&…...

CANN双三次上采样算子

aclnnUpsampleBicubic2d 【免费下载链接】ops-cv 本项目是CANN提供的图像处理、目标检测相关的算子库,实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-cv 📄 查看源码 产品支持情况 产品是否支持Ascend 950PR/Ascend 950DT…...

AI赋能引力波数据分析:从信号检测到参数估计的实践与挑战

1. 引力波数据分析的挑战与AI的破局之道当LIGO在2015年首次直接探测到引力波时,整个物理学界为之振奋。这不仅仅是验证了爱因斯坦百年前的预言,更是为我们打开了一扇观测宇宙的全新窗口。然而,随之而来的并非全是喜悦,还有海啸般的…...

CANN/cannbot-skills NPU推理优化

【免费下载链接】cannbot-skills CANNBot 是面向 CANN 开发的用于提升开发效率的系列智能体,本仓库为其提供可复用的 Skills 模块。 项目地址: https://gitcode.com/cann/cannbot-skills name: infer-model-optimize-team description: NPU 模型推理优化助手…...

2026 毕业季必藏:9 款 AI 论文查重降重工具全测评,Paperxie 领衔高效通关

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/期刊论文https://www.paperxie.cn/weight?type1https://www.paperxie.cn/weight?type1 毕业季论文查重与 AIGC 检测双重压力下,选对工具能少走 90% 弯路。2026 年知网、维普 AIGC 检测算法全面…...

Llama 3.2 Vision轻量微调实战:500图打造电商级图文生成模型

1. 项目概述:为什么我们要亲手微调一个视觉语言模型?你有没有遇到过这样的场景:电商运营同事凌晨三点发来一张模糊的手机拍摄图,配文“快帮我写个爆款标题”,而你盯着这张图反复放大、截图、百度识图、翻竞品页面&…...

CANN/pyasc取小数计算函数

asc.language.adv.frac 【免费下载链接】pyasc 本项目为Python用户提供算子编程接口,支持在昇腾AI处理器上加速计算,接口与Ascend C一一对应并遵守Python原生语法。 项目地址: https://gitcode.com/cann/pyasc asc.language.adv.frac(dst: LocalT…...

CANN/hccl故障诊断定位思路

定位思路 【免费下载链接】hccl 集合通信库(Huawei Collective Communication Library,简称HCCL)是基于昇腾AI处理器的高性能集合通信库,为计算集群提供高性能、高可靠的通信方案 项目地址: https://gitcode.com/cann/hccl …...

CANN学习中心CMake配置详解

CMake 配置详解 【免费下载链接】cann-learning-hub CANN 学习中心仓,支持在线互动运行、边学边练,提供教程、示例与优化方案,一站式助力昇腾开发者快速上手。 项目地址: https://gitcode.com/cann/cann-learning-hub CMakePresets.js…...

MRCV开源工具库:用AI潜在表示与神经网络重塑音乐创作与声音设计

1. MRCV:当AI遇见声音,一个开源工具库如何重塑音乐创作作为一名在音频编程和音乐技术领域摸爬滚打了十多年的从业者,我见证了从简单的MIDI音序器到复杂的物理建模合成器的演变。但最近几年,最让我感到兴奋的,无疑是人工…...

感知-通信-计算一体化:破解边缘AI资源困局的核心架构

1. 项目概述:为什么我们需要感知-通信-计算一体化?在智能家居里,你对着智能音箱说句话,它几乎瞬间就能回应;在自动驾驶汽车上,摄像头和雷达捕捉到的路况信息,需要立刻被分析并做出驾驶决策。这些…...

CANN/runtime设备同步内存复制示例

5_d2d_sync_memory_copy 【免费下载链接】runtime 本项目提供CANN运行时组件和维测功能组件。 项目地址: https://gitcode.com/cann/runtime 描述 本样例展示了Device内的内存复制,使用aclrtMemcpy内存复制接口。 产品支持情况 本样例支持以下产品&#x…...

FPGA加速的VAE在粒子物理模拟中的应用与优化

1. 项目概述粒子物理实验中的蒙特卡洛模拟是理解探测器响应、优化重建算法和评估系统不确定性的关键环节。传统基于Geant4的完整探测器模拟虽然精度高,但计算成本极其昂贵——在大型强子对撞机(LHC)实验中,模拟任务消耗了约80%的计…...

CANN/ge ES代码生成器工具

ES (Eager Style) Generator 【免费下载链接】ge GE(Graph Engine)是面向昇腾的图编译器和执行器,提供了计算图优化、多流并行、内存复用和模型下沉等技术手段,加速模型执行效率,减少模型内存占用。 GE 提供对 PyTorch…...

CANN SHMEM工具调测指南

SHMEM搭配工具算子调测指导 【免费下载链接】shmem CANN SHMEM 是面向昇腾平台的多机多卡内存通信库,基于OpenSHMEM 标准协议,实现跨设备的高效内存访问与数据同步。 项目地址: https://gitcode.com/cann/shmem msprof shmem后续会适配msprof算子…...

CANN/shmem Pre-commit使用指南

Pre-commit 代码检查使用指南 【免费下载链接】shmem CANN SHMEM 是面向昇腾平台的多机多卡内存通信库,基于OpenSHMEM 标准协议,实现跨设备的高效内存访问与数据同步。 项目地址: https://gitcode.com/cann/shmem 介绍 本项目使用 pre-commit 框…...

多智能体系统协同韧性:从概念到量化评估的工程实践

1. 项目概述:从“各自为战”到“协同共生”的韧性挑战在人工智能的演进浪潮中,多智能体系统正从实验室走向现实世界的复杂场景。无论是自动驾驶车队的协同调度、工业机器人的集群作业,还是在线游戏中的NPC协作,其核心都是多个自主…...

为你的OpenClaw智能体工作流配置Taotoken作为模型供应商

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 为你的OpenClaw智能体工作流配置Taotoken作为模型供应商 基础教程类,面向使用OpenClaw框架构建AI智能体工作流的开发者…...

WarcraftHelper:魔兽争霸3终极优化指南,5步实现高分辨率与高帧率体验

WarcraftHelper:魔兽争霸3终极优化指南,5步实现高分辨率与高帧率体验 【免费下载链接】WarcraftHelper Warcraft III Helper , support 1.20e, 1.24e, 1.26a, 1.27a, 1.27b 项目地址: https://gitcode.com/gh_mirrors/wa/WarcraftHelper 你是否还…...

WatchGuard Agent多漏洞深度解析:从本地提权到SYSTEM,安全代理为何成为内网最大后门?

引言:当守护者变成入侵者——安全行业最讽刺的悖论 2026年5月6日,全球知名网络安全厂商WatchGuard在其官方安全公告中紧急发布了一批针对Windows终端安全代理的高危漏洞修复补丁。这则看似普通的安全公告,却在全球政企安全圈引发了轩然大波—…...

AIAS信息模型:构建工业AI与自动化系统融合的标准化蓝图

1. 项目概述:为什么我们需要一个“AI自动化系统说明书”?在工厂车间里,一台冲压机正在不知疲倦地工作。工程师小王最近为它部署了一个AI模型,用来预测驱动皮带的磨损状态,目标是实现预测性维护,减少非计划停…...

CANN Runtime API 参考

Runtime API 参考 【免费下载链接】runtime 本项目提供CANN运行时组件和维测功能组件。 项目地址: https://gitcode.com/cann/runtime 1. 概述 2. 初始化与去初始化 3. 运行时配置 4. Device管理 5. Context管理 6. Stream管理 7. Event管理 8. Notify管理 9. Cn…...

医疗影像AI落地实战:从AGI大模型到临床小模型的对齐与轻量化

1. 项目概述:当AGI遇见医疗影像,从“实验室巨兽”到“临床利器”的必经之路如果你最近关注人工智能,尤其是通用人工智能(AGI)的进展,一定会被ChatGPT、GPT-4、Segment Anything Model (SAM)这些“大模型”的…...

能量阀工厂

在当今工业领域,能量阀对于众多系统的高效运行起着至关重要的作用。天津水阀机械有限公司作为一家专业的能量阀工厂,凭借其深厚的技术实力、卓越的产品质量和广泛的市场应用,在行业中占据着重要地位。下面,让我们一同深入了解这家…...

AI赋能非洲农业:技术落地挑战与可持续路径实践

1. 项目概述:当AI遇见非洲田野最近几年,我一直在关注技术如何真正落地到传统行业,尤其是那些最需要效率提升的领域。非洲农业,这个常常被外界贴上“落后”标签的庞大系统,恰恰是人工智能技术最具想象力的试验场。这不是…...