当前位置: 首页 > article >正文

CANN/sip BLAS点积算子文档

Dot【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库基于华为Ascend AI处理器专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip产品支持情况产品是否支持Atlas 200I/500 A2 推理产品×Atlas 推理系列产品×Atlas 训练系列产品×Atlas A3 训练系列产品/Atlas A3 推理系列产品√Atlas A2 训练系列产品/Atlas A2 推理系列产品√Ascend 950PR/Ascend 950DT×功能说明接口功能asdBlasMakeDotPlan初始化该句柄对应的Dot算子配置。asdBlasSdot计算两个实数向量的点积。asdBlasCdotu计算两个复数向量的点积。asdBlasCdotc计算一个复数向量取共轭后和另一个复数向量的点积。计算公式asdBlasSdot的公式$$ result\sum _{i1}^n(x[i] * y[i]) $$示例 输入“x”为 [1.0, 2.0] 输入“y”为 [1.0, 2.0] 调用asdBlasSdot算子后输出“result”为 5.0asdBlasCdotu的公式$$ result\sum _{i1}^n(conj(x[i]) * y[i]) $$ 其中x[i]和y[i]是复数。 示例 输入“x”为 [ 0.15540.8840j, -0.3564-0.2552j] 输入“y”为 [-0.14041.3380j, -0.48760.1842j] 调用asdBlasCdotu算子后输出“result”为 1.2877-0.1420jasdBlasCdotc的公式$$ result\sum _{i1}^n(conj(x[i]) * y[i]) $$ 其中x[i]和y[i]是复数,conj共轭操作。 示例 输入“x”为 [ 0.15540.8840j, -0.3564-0.2552j] 输入“y”为 [-0.14041.3380j, -0.48760.1842j] 调用asdBlasCdotc算子后输出“result”为 1.2877-0.1420j函数原型AspbStatus asdBlasMakeDotPlan( asdBlasHandle handle)AspbStatus asdBlasSdot( asdBlasHandle handle, const int64_t n, aclTensor * x, const int64_t incx, aclTensor * y, const int64_t incy, aclTensor * result)AspbStatus asdBlasCdotu( asdBlasHandle handle, const int64_t n, aclTensor * x, const int64_t incx, aclTensor * y, const int64_t incy, aclTensor * result)AspbStatus asdBlasCdotc( asdBlasHandle handle, const int64_t n, aclTensor * x, const int64_t incx, aclTensor * y, const int64_t incy, aclTensor * result)asdBlasMakeDotPlan参数说明参数名输入/输出描述handleasdBlasHandle输入算子的句柄返回值返回状态码具体参见SiP返回码。asdBlasSdot asdBlasCdotu asdBlasCdotc参数说明参数名输入/输出描述handleasdBlasHandle输入算子的句柄nint64_t输入向量x或向量y中的元素个数。xaclTensor *输入对应公式中的x。asdBlasSdot支持的数据类型支持FLOAT32。asdBlasCdotu asdBlasCdotc支持的数据类型支持COMPLEX64。数据格式支持ND。shape为[n]。incxint64_t输入向量x相邻元素间的内存地址偏移量当前约束为1。yaclTensor *输入对应公式中的y。asdBlasSdot支持的数据类型支持FLOAT32。asdBlasCdotu asdBlasCdotc支持的数据类型支持COMPLEX64。数据格式支持ND。shape为[n]。incyint64_t输入向量y相邻元素间的内存地址偏移量当前约束为1。resultaclTensor *输出表示输出的结果对应公式中的result。数据类型支持FLOAT32只包含一个元素。数据格式支持ND。shape为[1]。返回值返回状态码具体参见SiP返回码。约束说明输入的元素个数n当前覆盖支持[16.71e06]。算子输入shape为[n]输出shape为[1]。算子实际计算时不支持ND高维度运算不支持维度≥3的运算。调用示例示例代码如下该样例旨在提供快速上手、开发和调试算子的最小化实现其核心目标是使用最精简的代码展示算子的核心功能而非提供生产级的安全保障。不推荐用户直接将示例代码作为业务代码若用户将示例代码应用在自身的真实业务场景中且发生了安全问题则需用户自行承担。asdBlasSdot#include iostream #include vector #include asdsip.h #include acl/acl.h #include acl_meta.h using namespace AsdSip; #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ (err); \ if (err_ ! AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout Execute failed. std::endl; \ exit(-1); \ } \ } while (0) #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vectorint64_t shape) { int64_t shapeSize 1; for (auto i : shape) { shapeSize * i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法acl初始化 auto ret aclInit(nullptr); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclInit failed. ERROR: %d\n, ret); return ret); ret aclrtSetDevice(deviceId); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtSetDevice failed. ERROR: %d\n, ret); return ret); ret aclrtCreateStream(stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtCreateStream failed. ERROR: %d\n, ret); return ret); return 0; } template typename T int CreateAclTensor(const std::vectorT hostData, const std::vectorint64_t shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtMalloc failed. ERROR: %d\n, ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtMemcpy failed. ERROR: %d\n, ret); return ret); // 计算连续tensor的strides std::vectorint64_t strides(shape.size(), 1); for (int64_t i shape.size() - 2; i 0; i--) { strides[i] shape[i 1] * strides[i 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main(int argc, char **argv) { // 设置算子使用的device id int deviceId 0; //固定写法创造执行流 aclrtStream stream; auto ret Init(deviceId, stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(Init acl failed. ERROR: %d\n, ret); return ret); // 创造tensor的Host侧数据 int64_t n 5; int64_t incx 1; int64_t incy 1; int64_t xSize 5; std::vectorfloat tensorInXData; tensorInXData.reserve(xSize); for (int64_t i 0; i xSize; i) { tensorInXData[i] 1.0 i; } int64_t ySize 5; std::vectorfloat tensorInYData; tensorInYData.reserve(xSize); for (int64_t i 0; i ySize; i) { tensorInYData[i] 10.0 i; } int64_t resultSize 1; std::vectorfloat resultData; resultData.reserve(resultSize); std::cout ------- input x ------- std::endl; for (int64_t i 0; i xSize; i) { std::cout tensorInXData[i] ; } std::cout std::endl; std::cout ------- input y ------- std::endl; for (int64_t i 0; i ySize; i) { std::cout tensorInYData[i] ; } std::cout std::endl; // 创造输入/输出tensor std::vectorint64_t xShape {xSize}; std::vectorint64_t yShape {ySize}; std::vectorint64_t resultShape {resultSize}; aclTensor *inputX nullptr; aclTensor *inputY nullptr; aclTensor *result nullptr; void *inputXDeviceAddr nullptr; void *inputYDeviceAddr nullptr; void *resultDeviceAddr nullptr; ret CreateAclTensor(tensorInXData, xShape, inputXDeviceAddr, aclDataType::ACL_FLOAT, inputX); CHECK_RET(ret ::ACL_SUCCESS, return ret); ret CreateAclTensor(tensorInYData, yShape, inputYDeviceAddr, aclDataType::ACL_FLOAT, inputY); CHECK_RET(ret ::ACL_SUCCESS, return ret); ret CreateAclTensor(resultData, resultShape, resultDeviceAddr, aclDataType::ACL_FLOAT, result); CHECK_RET(ret ::ACL_SUCCESS, return ret); // 创建算子执行句柄 asdBlasHandle handle; asdBlasCreate(handle); // 创造算子执行所需workspace size_t lwork 0; void *buffer nullptr; asdBlasMakeDotPlan(handle); asdBlasGetWorkspaceSize(handle, lwork); std::cout lwork lwork std::endl; if (lwork 0) { ret aclrtMalloc(buffer, static_castint64_t(lwork), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(allocate workspace failed. ERROR: %d\n, ret); return ret); } asdBlasSetWorkspace(handle, buffer); // 配置算子执行信息 asdBlasSetStream(handle, stream); // 调用接口执行算子固定调用逻辑 ASD_STATUS_CHECK(asdBlasSdot(handle, n, inputX, incx, inputY, incy, result)); asdBlasSynchronize(handle); // 调度算子后销毁算子句柄 asdBlasDestroy(handle); // 将输出tensor的Device侧数据复制到Host侧内存上 ret aclrtMemcpy(resultData.data(), resultSize * sizeof(float), resultDeviceAddr, resultSize * sizeof(float), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(copy result from device to host failed. ERROR: %d\n, ret); return ret); std::cout ------- result ------- std::endl; for (int64_t i 0; i 1; i) { std::cout resultData[i] ; } std::cout std::endl; std::cout Execute successfully. std::endl; // 资源释放 aclDestroyTensor(inputX); aclDestroyTensor(inputY); aclDestroyTensor(result); aclrtFree(inputXDeviceAddr); aclrtFree(inputYDeviceAddr); aclrtFree(resultDeviceAddr); aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }asdBlasCdotu#include iostream #include vector #include cmath #include random #include complex #include asdsip.h #include acl/acl.h #include acl_meta.h using namespace AsdSip; #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ (err); \ if (err_ ! AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout Execute failed. std::endl; \ exit(-1); \ } else { \ std::cout Execute successfully. std::endl; \ } \ } while (0) void printTensor(const std::complexfloat *tensorData, int64_t tensorSize) { for (int64_t i 0; i tensorSize; i) { std::cout tensorData[i] ; } std::cout std::endl; } #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vectorint64_t shape) { int64_t shapeSize 1; for (auto i : shape) { shapeSize * i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法acl初始化 auto ret aclInit(nullptr); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclInit failed. ERROR: %d\n, ret); return ret); ret aclrtSetDevice(deviceId); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtSetDevice failed. ERROR: %d\n, ret); return ret); ret aclrtCreateStream(stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtCreateStream failed. ERROR: %d\n, ret); return ret); return 0; } template typename T int CreateAclTensor(const std::vectorT hostData, const std::vectorint64_t shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtMalloc failed. ERROR: %d\n, ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtMemcpy failed. ERROR: %d\n, ret); return ret); // 计算连续tensor的strides std::vectorint64_t strides(shape.size(), 1); for (int64_t i shape.size() - 2; i 0; i--) { strides[i] shape[i 1] * strides[i 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } void printTensor(std::vectorstd::complexfloat tensorData, int64_t tensorSize) { for (int64_t i 0; i tensorSize; i) { std::cout tensorData[i] ; } std::cout std::endl; } int main(int argc, char **argv) { int deviceId 0; aclrtStream stream; auto ret Init(deviceId, stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(Init acl failed. ERROR: %d\n, ret); return ret); int64_t n 8; int64_t xSize 8; int64_t ySize 8; std::vectorstd::complexfloat tensorInXData; tensorInXData.reserve(xSize); for (int64_t i 0; i xSize; i) { tensorInXData[i] {2.0, (float)(1.0 i)}; } std::vectorstd::complexfloat tensorInYData; tensorInYData.reserve(ySize); for (int64_t i 0; i ySize; i) { tensorInYData[i] {3.0, 4.0}; } int64_t resultSize 1; std::vectorstd::complexfloat resultData; resultData.reserve(resultSize); std::cout ------- input TensorInX ------- std::endl; printTensor(tensorInXData.data(), xSize); std::cout ------- input TensorInY ------- std::endl; printTensor(tensorInYData.data(), ySize); std::vectorint64_t xShape {xSize}; std::vectorint64_t yShape {ySize}; std::vectorint64_t resultShape {resultSize}; aclTensor *inputX nullptr; aclTensor *inputY nullptr; aclTensor *result nullptr; void *inputXDeviceAddr nullptr; void *inputYDeviceAddr nullptr; void *resultDeviceAddr nullptr; ret CreateAclTensor(tensorInXData, xShape, inputXDeviceAddr, aclDataType::ACL_COMPLEX64, inputX); CHECK_RET(ret ::ACL_SUCCESS, return ret); ret CreateAclTensor(tensorInYData, yShape, inputYDeviceAddr, aclDataType::ACL_COMPLEX64, inputY); CHECK_RET(ret ::ACL_SUCCESS, return ret); ret CreateAclTensor(resultData, resultShape, resultDeviceAddr, aclDataType::ACL_COMPLEX64, result); CHECK_RET(ret ::ACL_SUCCESS, return ret); asdBlasHandle handle; asdBlasCreate(handle); size_t lwork 0; void *buffer nullptr; asdBlasMakeDotPlan(handle); asdBlasGetWorkspaceSize(handle, lwork); std::cout lwork lwork std::endl; if (lwork 0) { ret aclrtMalloc(buffer, static_castint64_t(lwork), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(allocate workspace failed. ERROR: %d\n, ret); return ret); } asdBlasSetWorkspace(handle, buffer); asdBlasSetStream(handle, stream); ASD_STATUS_CHECK(asdBlasCdotu(handle, n, inputX, 1, inputY, 1, result)); asdBlasSynchronize(handle); asdBlasDestroy(handle); ret aclrtMemcpy(resultData.data(), resultSize * sizeof(std::complexfloat), resultDeviceAddr, resultSize * sizeof(std::complexfloat), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(copy result from device to host failed. ERROR: %d\n, ret); return ret); std::cout ------- result ------- std::endl; printTensor(resultData.data(), resultSize); aclDestroyTensor(inputX); aclDestroyTensor(inputY); aclDestroyTensor(result); aclrtFree(inputXDeviceAddr); aclrtFree(inputYDeviceAddr); aclrtFree(resultDeviceAddr); aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }asdBlasCdotc#include iostream #include vector #include complex #include cmath #include random #include asdsip.h #include acl/acl.h #include acl_meta.h using namespace AsdSip; #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ (err); \ if (err_ ! AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout Execute failed. std::endl; \ exit(-1); \ } else { \ std::cout Execute successfully. std::endl; \ } \ } while (0) void printTensor(const std::complexfloat *tensorData, int64_t tensorSize) { for (int64_t i 0; i tensorSize; i) { std::cout tensorData[i] ; } std::cout std::endl; } #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vectorint64_t shape) { int64_t shapeSize 1; for (auto i : shape) { shapeSize * i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法acl初始化 auto ret aclInit(nullptr); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclInit failed. ERROR: %d\n, ret); return ret); ret aclrtSetDevice(deviceId); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtSetDevice failed. ERROR: %d\n, ret); return ret); ret aclrtCreateStream(stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtCreateStream failed. ERROR: %d\n, ret); return ret); return 0; } template typename T int CreateAclTensor(const std::vectorT hostData, const std::vectorint64_t shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtMalloc failed. ERROR: %d\n, ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtMemcpy failed. ERROR: %d\n, ret); return ret); // 计算连续tensor的strides std::vectorint64_t strides(shape.size(), 1); for (int64_t i shape.size() - 2; i 0; i--) { strides[i] shape[i 1] * strides[i 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } void printTensor(std::vectorstd::complexfloat tensorData, int64_t tensorSize) { for (int64_t i 0; i tensorSize; i) { std::cout tensorData[i] ; } std::cout std::endl; } int main(int argc, char **argv) { int deviceId 0; aclrtStream stream; auto ret Init(deviceId, stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(Init acl failed. ERROR: %d\n, ret); return ret); int64_t n 8; int64_t xSize 8; int64_t ySize 8; std::vectorstd::complexfloat tensorInXData; tensorInXData.reserve(xSize); for (int64_t i 0; i xSize; i) { tensorInXData[i] {2.0, (float)(1.0 i)}; } std::vectorstd::complexfloat tensorInYData; tensorInYData.reserve(ySize); for (int64_t i 0; i ySize; i) { tensorInYData[i] {3.0, 4.0}; } int64_t resultSize 1; std::vectorstd::complexfloat resultData; resultData.reserve(resultSize); std::cout ------- input TensorInX ------- std::endl; printTensor(tensorInXData.data(), xSize); std::cout ------- input TensorInY ------- std::endl; printTensor(tensorInYData.data(), ySize); std::vectorint64_t xShape {xSize}; std::vectorint64_t yShape {ySize}; std::vectorint64_t resultShape {resultSize}; aclTensor *inputX nullptr; aclTensor *inputY nullptr; aclTensor *result nullptr; void *inputXDeviceAddr nullptr; void *inputYDeviceAddr nullptr; void *resultDeviceAddr nullptr; ret CreateAclTensor(tensorInXData, xShape, inputXDeviceAddr, aclDataType::ACL_COMPLEX64, inputX); CHECK_RET(ret ::ACL_SUCCESS, return ret); ret CreateAclTensor(tensorInYData, yShape, inputYDeviceAddr, aclDataType::ACL_COMPLEX64, inputY); CHECK_RET(ret ::ACL_SUCCESS, return ret); ret CreateAclTensor(resultData, resultShape, resultDeviceAddr, aclDataType::ACL_COMPLEX64, result); CHECK_RET(ret ::ACL_SUCCESS, return ret); asdBlasHandle handle; asdBlasCreate(handle); size_t lwork 0; void *buffer nullptr; asdBlasMakeDotPlan(handle); asdBlasGetWorkspaceSize(handle, lwork); std::cout lwork lwork std::endl; if (lwork 0) { ret aclrtMalloc(buffer, static_castint64_t(lwork), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(allocate workspace failed. ERROR: %d\n, ret); return ret); } asdBlasSetWorkspace(handle, buffer); asdBlasSetStream(handle, stream); ASD_STATUS_CHECK(asdBlasCdotc(handle, n, inputX, 1, inputY, 1, result)); asdBlasSynchronize(handle); asdBlasDestroy(handle); ret aclrtMemcpy(resultData.data(), resultSize * sizeof(std::complexfloat), resultDeviceAddr, resultSize * sizeof(std::complexfloat), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(copy result from device to host failed. ERROR: %d\n, ret); return ret); std::cout ------- result ------- std::endl; printTensor(resultData.data(), resultSize); aclDestroyTensor(inputX); aclDestroyTensor(inputY); aclDestroyTensor(result); aclrtFree(inputXDeviceAddr); aclrtFree(inputYDeviceAddr); aclrtFree(resultDeviceAddr); aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库基于华为Ascend AI处理器专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

相关文章:

CANN/sip BLAS点积算子文档

Dot 【免费下载链接】sip 本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。 项目地址: https://gitcode.com/cann/sip 产品支持情况 产品是否支持Atlas 200I/500 A2 推理产品At…...

Dify与Langfuse集成:构建可观测AI应用的全链路实践

1. 项目概述:当Dify遇上Langfuse,如何构建可观测的AI应用 如果你正在用Dify搭建AI应用,那你一定遇到过这样的场景:用户反馈说“昨天那个回答挺好的,今天怎么不行了?”;或者产品经理问你“我们调…...

CANN/CATLASS样例设计文档

CATLASS 样例设计文档 【免费下载链接】catlass 本项目是CANN的算子模板库,提供NPU上高性能矩阵乘及其相关融合类算子模板样例。 项目地址: https://gitcode.com/cann/catlass 本文档汇总当前一些样例的设计思路和代码拆解,读者可按照个人兴趣查阅…...

多模态大模型评测指南:从盲测竞技场到技术选型实战

1. 项目概述:一个开放的多模态模型竞技场如果你最近在关注大模型,尤其是那些能“看懂”图片的视觉语言大模型,那你可能已经发现,各种新模型如雨后春笋般涌现,每个都宣称自己性能卓越。但作为开发者或研究者&#xff0c…...

体验低延迟与高稳定的大模型API调用服务

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 体验低延迟与高稳定的大模型API调用服务 在需要与大模型进行高频、连续交互的开发或学习场景中,服务的响应速度和稳定性…...

2026年 自动化缝纫模板机 机器人工作站市场洞察与排名

前言在智能制造浪潮下,模板机机器人工作站成为服装、家纺等行业升级关键。这类设备以高效、精准、稳定等特性,提升生产效率与降低成本。市场上相关品牌与产品众多,为助企业挑选,现从多维度评估并排名。2026 年模板机机器人工作站 …...

CANN/asc-tools NPU检查工具

npu_check 【免费下载链接】asc-tools Ascend C Tools仓是CANN基于Ascend C编程语言推出的配套调试工具仓。 项目地址: https://gitcode.com/cann/asc-tools 概述 Ascend C Tools提供的孪生调试分为debug功能和npu check功能,debug功能包含诸如是否合法使用…...

CANN/PTO-ISA安全说明

安全说明 【免费下载链接】pto-isa Parallel Tile Operation (PTO) is a virtual instruction set architecture designed by Ascend CANN, focusing on tile-level operations. This repository offers high-performance, cross-platform tile operations across Ascend platf…...

全域矩阵运营系统分布式任务调度架构设计与工程化落地

摘要随着全域矩阵运营系统的规模化落地,系统需要承载数十万账号的定时内容发布、跨平台数据同步、账号健康巡检、合规风险扫描、运营 SOP 执行等海量、异构、强业务关联的任务场景。通用分布式任务调度框架仅能实现基础的定时任务触发,无法适配矩阵系统多…...

基于改进YOLOv8斑点叉尾鮰鱼损伤检测系统的研究与实现

摘要:斑点叉尾鮰是我国重要的淡水养殖经济鱼类,在高密度集约化养殖过程中,鱼体损伤问题频发,直接影响商品鱼品质和养殖经济效益。传统的鱼体损伤检测主要依赖人工目视判别,存在效率低、主观性强、难以实现批量化检测等…...

昇腾CANN/GE Concat No Task特性分析

Concat No Task 特性分析 【免费下载链接】ge GE(Graph Engine)是面向昇腾的图编译器和执行器,提供了计算图优化、多流并行、内存复用和模型下沉等技术手段,加速模型执行效率,减少模型内存占用。 GE 提供对 PyTorch、T…...

通过curl命令快速测试Taotoken各大模型接口响应与功能

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 通过curl命令快速测试Taotoken各大模型接口响应与功能 对于需要在无SDK环境或进行底层接口调试的开发者而言,直接使用c…...

2025最权威的十大降AI率平台推荐榜单

Ai论文网站排名(开题报告、文献综述、降aigc率、降重综合对比) TOP1. 千笔AI TOP2. aipasspaper TOP3. 清北论文 TOP4. 豆包 TOP5. kimi TOP6. deepseek 维普AIGC检测系统的主要目的乃精确辨认学术文本里那帮通过人工智能给弄出来的内容。在用户使…...

WorkshopDL:革命性跨平台Steam创意工坊下载技术指南

WorkshopDL:革命性跨平台Steam创意工坊下载技术指南 【免费下载链接】WorkshopDL WorkshopDL - The Best Steam Workshop Downloader 项目地址: https://gitcode.com/gh_mirrors/wo/WorkshopDL 1. 问题洞察 你是否曾经在GOG平台购买了《巫师3》,…...

键盘上的麦克风按钮:笔记本静音/开启的终极指南

键盘上的麦克风按钮:笔记本静音/开启的终极指南 在视频会议、直播或录制视频时,你是否曾因为找不到麦克风开关而手忙脚乱?其实,很多笔记本电脑都在键盘上藏了一个“物理静音键”,只要按对键,就能瞬间掌控声音的“话语权”。 今天这篇博文,我们就来详细扒一扒不同品牌笔…...

核心概念扫盲:Pawn、PlayerController 和 GameMode

📌 核心概念扫盲:Pawn、PlayerController 和 GameMode 在写避坑指南前,先用最通俗的大白话把这三个“铁三角”搞清楚,否则后面配置起来会非常迷糊: Pawn(棋子/角色):游戏世界里的“身体”。它可以是一个行走的战士(Character 是 Pawn 的子类,专门做人形角色),也可…...

如何让你的Atom编辑器说中文:三步实现完整中文汉化体验

如何让你的Atom编辑器说中文:三步实现完整中文汉化体验 【免费下载链接】atom-simplified-chinese-menu Atom 的简体中文汉化扩展,目前最全的汉化包。包含菜单汉化、右键菜单汉化以及设置汉化 项目地址: https://gitcode.com/gh_mirrors/at/atom-simplified-chine…...

CANN/sip复数矩阵逐点乘

ComplexMatDot 【免费下载链接】sip 本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。 项目地址: https://gitcode.com/cann/sip 产品支持情况 产品是否支持 Atlas 200I/500 A2…...

如何用Python自动化工具轻松完成智慧树课程学习:Autovisor终极指南

如何用Python自动化工具轻松完成智慧树课程学习:Autovisor终极指南 【免费下载链接】Autovisor 2025智慧树刷课脚本 基于Python Playwright的自动化程序 [有免安装版] 项目地址: https://gitcode.com/gh_mirrors/au/Autovisor 还在为智慧树平台繁琐的手动学习…...

CANN/ops-cv仿真工具使用指南

简介 【免费下载链接】ops-cv 本项目是CANN提供的图像处理、目标检测相关的算子库,实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-cv CANN Simulator是一款面向算子开发场景的SoC级芯片仿真工具,用于分析运行在AI仿真器上的…...

Atom编辑器终极中文汉化指南:告别英文困扰,轻松打造专属编程环境

Atom编辑器终极中文汉化指南:告别英文困扰,轻松打造专属编程环境 【免费下载链接】atom-simplified-chinese-menu Atom 的简体中文汉化扩展,目前最全的汉化包。包含菜单汉化、右键菜单汉化以及设置汉化 项目地址: https://gitcode.com/gh_mirrors/at/a…...

Video DownloadHelper CoApp终极指南:轻松下载网络视频的完整教程

Video DownloadHelper CoApp终极指南:轻松下载网络视频的完整教程 【免费下载链接】vdhcoapp Companion application for Video DownloadHelper browser add-on 项目地址: https://gitcode.com/gh_mirrors/vd/vdhcoapp Video DownloadHelper CoApp是一款功能…...

【Pocket Flow】源码剖析(二):批量与异步——BatchNode、AsyncNode 与并行执行

【Pocket Flow】源码剖析(二):批量与异步——BatchNode、AsyncNode 与并行执行 写在前面:第一篇我们拆解了 Pocket Flow 的三大核心抽象——Node、Flow 和 Shared Store,理解了 100 行代码的骨架。今天,我们…...

CANN ops-nn ELU梯度算子

EluGrad 【免费下载链接】ops-nn 本项目是CANN提供的神经网络类计算算子库,实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-nn 📄 查看源码 产品支持情况 产品是否支持Ascend 950PR/Ascend 950DT√Atlas A3 训练系列产品/A…...

从接入到观测Taotoken为开发者提供了完整的使用体验

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 从接入到观测:Taotoken为开发者提供了完整的使用体验 对于开发者而言,选择一个模型服务平台,其…...

多中心COVID-19 CT分类的异构集成方法解析

1. 项目概述:多中心COVID-19 CT分类的异构集成方法在医疗影像分析领域,COVID-19的快速准确诊断一直是临床实践中的关键挑战。传统的RT-PCR检测虽然作为金标准,但其较长的周转时间(通常需要48-72小时)和高达30%的假阴性…...

差分编码在40Gbps光通信中的实现与优化

1. 差分编码的核心原理与工程价值差分编码作为数字通信系统的基石技术,其数学本质是模2加法运算的链式反应。给定输入比特序列d_k,输出编码序列c_k满足递归关系:c_k c_{k-1} ⊕ d_k。这个看似简单的公式却解决了通信工程中的关键难题——相位…...

pi0机器人VLA大模型昇腾推理优化

pi0机器人VLA大模型推理昇腾迁移-性能优化说明 【免费下载链接】cann-recipes-embodied-intelligence 本项目针对具身智能业务中的典型模型、加速算法,提供基于CANN平台的优化样例 项目地址: https://gitcode.com/cann/cann-recipes-embodied-intelligence pi…...

如何用FastbootEnhance轻松管理Android设备:Windows终极图形化工具箱指南

如何用FastbootEnhance轻松管理Android设备:Windows终极图形化工具箱指南 【免费下载链接】FastbootEnhance A user-friendly Fastboot ToolBox & Payload Dumper for Windows 项目地址: https://gitcode.com/gh_mirrors/fa/FastbootEnhance 还在为复杂的…...

3步掌握鼠标键盘自动化神器,彻底告别重复劳动

3步掌握鼠标键盘自动化神器,彻底告别重复劳动 【免费下载链接】KeymouseGo 类似按键精灵的鼠标键盘录制和自动化操作 模拟点击和键入 | automate mouse clicks and keyboard input 项目地址: https://gitcode.com/gh_mirrors/ke/KeymouseGo 你是否厌倦了每天…...