当前位置: 首页 > article >正文

CANN/ge:AscendIR图引擎中间表示设计

AscendIR — 图引擎的中间表示设计【免费下载链接】geGEGraph Engine是面向昇腾的图编译器和执行器提供了计算图优化、多流并行、内存复用和模型下沉等技术手段加速模型执行效率减少模型内存占用。 GE 提供对 PyTorch、TensorFlow 前端的友好接入能力并同时支持 onnx、pb 等主流模型格式的解析与编译。项目地址: https://gitcode.com/cann/geGE 编译器消费的核心数据结构其设计质量直接决定了编译优化的能力和上限1. 整体架构四层对象模型AscendIR 的核心对象模型由四个层次构成ComputeGraph → Node → OpDesc → GeTensorDesc ↕ AnchorComputeGraph图的容器管理节点集合、输入/输出节点、子图、拓扑排序Node图中的算子节点持有 OpDesc 和一组 Anchor锚点OpDesc算子描述符定义算子的名称、类型、输入/输出张量描述、属性、推导函数等GeTensorDesc张量描述包含形状、数据类型、格式NCHW/NHWC 等、内存布局信息Anchor描述节点间的连接关系分为 DataAnchor 和 ControlAnchorAscendIR 的一个关键设计特征是图中不存在独立的 Edge边对象。边的关系完全由锚点之间的双向引用维护。2. 锚点系统连接关系的内嵌表达2.1 设计细节AscendIR 的 Anchor 类继承体系如下Anchor基类 ├── DataAnchor │ ├── InDataAnchor 输入数据锚点 │ └── OutDataAnchor 输出数据锚点 └── ControlAnchor ├── InControlAnchor 输入控制锚点 └── OutControlAnchor 输出控制锚点每个 Node 在初始化时NodeImpl::Init根据其 OpDesc 中定义的输入/输出数量创建对应数量的 InDataAnchor 和 OutDataAnchor。此外每个节点固定拥有一对InControlAnchor 和 OutControlAnchor索引为 -1。连接关系的维护方式每个 AnchorImpl 内部持有一个vectorweak_ptrAnchor peer_anchors_。当 OutDataAnchor 调用LinkTo(InDataAnchor)时两端互相将对方加入自己的 peer_anchors_ 列表。这是一个双向邻接表设计。关键约束InDataAnchor 只能有一个 peer单输入LinkFrom方法会检查 peer_anchors_ 是否为空OutDataAnchor 可以有多个 peer扇出一个输出可以连接多个下游输入ControlAnchor 可任意连接用于表达执行顺序依赖连接时支持跨类型连接OutDataAnchor 可以连接 InControlAnchor数据→控制依赖OutControlAnchor 也可以连接 InDataAnchor控制→数据依赖2.2 锚点方案的设计考量AscendIR 选择将连接关系内嵌于节点的锚点系统而非使用独立的边对象。对比独立边对象方案如果引入独立的 Edge 对象会增加一层间接性——遍历邻居需要 Edge → Anchor → Node 的两步跳转边的生命周期管理也更为复杂删边时需要同步更新两端的引用序列化时边的顺序维护是一个额外负担。锚点方案的优势O(1) 邻居访问从 InDataAnchor 直接获得唯一的 peer OutDataAnchorGetPeerOutAnchor从 OutDataAnchor 直接遍历所有 peer InDataAnchorGetPeerInDataAnchors无需全局查找。原子性连接/断开LinkTo和Unlink操作同时修改两端保证一致性。Insert和ReplacePeer方法支持在已有连接中插入新节点或替换对端。内存效率weak_ptr 避免循环引用anchor 本身是节点的组成部分而非独立对象减少了内存分配次数。图变换友好GE 编译器的大量 Pass融合、常量折叠、死代码消除需要频繁修改图结构。锚点系统使得断开旧连接、建立新连接操作非常局部化不需要全局重构。使用weak_ptr意味着每次访问都需要lock()操作但在图编译的语境下这一开销远小于简化图变换带来的收益。3. 图结构ComputeGraph 的设计3.1 核心数据结构ComputeGraphImpl 的核心成员std::listNodePtr nodes_节点列表使用 list 而非 vector支持频繁的中间插入和删除std::vectorNodePtr input_nodes_输入节点集合std::vectorpairNodePtr, int32_t output_nodes_info_输出节点及其输出索引std::vectorComputeGraphPtr sub_graph_子图集合std::mapstring, ComputeGraphPtr names_to_subgraph_名称→子图的映射weak_ptrComputeGraph parent_graph_/weak_ptrNode parent_node_父图和父节点引用3.2 节点管理添加节点AddNode创建 Node 对象时同时创建其所有 Anchor调用Node::InitInit 根据 OpDesc 的输入/输出数量为每个端口创建对应的 DataAnchor另外始终创建一对 ControlAnchor。节点被 push_back 到 nodes_ 列表末尾。删除节点RemoveNode这是一个复合操作——首先删除该节点关联的所有 Const 输入节点然后从 input_nodes_ 和 output_nodes_info_ 中移除再调用IsolateNode断开所有连边将上游输出直接连接到下游输入bypass 被删除的节点最后从 nodes_ 列表中移除。融合节点FuseNodeKeepTopo用于算子融合场景将多个原始节点替换为一组融合算子。插入位置选择在原始节点中 topo id 最小的位置同时继承原始节点的流标签、SuperKernel 属性和核数配置。3.3 子图管理AscendIR 支持嵌套子图这是实现控制流If/While/Case的基础子图通过AddSubGraph添加到父图的sub_graph_向量子图通过parent_graph_和parent_node_回指父图GetAllNodes方法会递归遍历所有子图节点通过 OpDesc 中的 subgraph_instance_names 建立关联子图中的 DATA 节点通过ATTR_NAME_PARENT_NODE_INDEX属性与父节点的输入端口对应子图中的 NETOUTPUT 节点汇总子图的输出子图不是一个独立的图而是挂在父节点上的附属结构。父节点如 If/While的 OpDesc 记录了子图实例名称subgraph_instance_names_Graph 通过名称映射找到对应的子图对象。3.4 拓扑排序AscendIR 提供了四种拓扑排序策略策略算法适用场景BFS广度优先训练场景默认DFS深度优先推理场景默认RDFS反向深度优先从输出节点回溯StableRDFS稳定反向DFS尽量保持原有顺序排序策略的选择通过OPTION_TOPOSORTING_MODE配置项控制训练默认 BFS推理默认 DFS。内存优先排序MemoryPriority当启用时拓扑排序会考虑节点的输出张量大小优先处理输出较大的节点通过NodeOutInfo结构比较输出大小和扇出数。这是为了优化内存复用——让大张量尽早释放。DelayTopoSort会将某些链式节点输入来自 variable/const 的链延迟到其消费者附近以提高内存局部性。排序后每个节点的id被重新设置为其在排序结果中的位置索引。排序还会检测环——如果排序后的节点数量不等于总节点数说明图中存在环路。4. 算子描述符OpDesc 的设计4.1 OpDesc 的双重身份OpDesc 是 AscendIR 中信息密度最高的对象同时承担了两种职责静态描述算子的输入/输出张量描述、名称映射、属性编译状态载体id、stream_id、input_offset、output_offset、workspace 等编译过程中逐步填充的信息OpDescImpl 的关键成员vectorGeTensorDescPtr inputs_desc_/outputs_desc_输入/输出张量描述mapstring, uint32_t input_name_idx_/output_name_idx_名称到索引的映射AttrStore attrs_属性存储基于 protobuf 的 AnyValueOpMetadata meta_data_元数据name, type, id, stream_id, offsets 等IRMetaData ir_meta_嵌套在 meta_data_ 中IR 注册信息输入/输出名称、子图 IR 名称等推导函数infer_func_、infer_format_func_、verifier_func_、infer_data_slice_func_4.2 输入/输出的双重索引OpDesc 对输入/输出提供了两种访问方式按索引和按名称。这在处理动态输入如可变数量的输入时尤为重要。动态输入的处理通过AddDynamicInputDesc实现为动态输入端口按顺序创建名为name0, name1, ...的输入描述。AddInputDescMiddle和AddInputDescForward支持在中间位置或头部插入新的输入描述同时更新名称到索引的映射关系。不同前端框架对同一算子的输入命名不同。通过UpdateInputName方法OpDesc 可以在运行时替换名称映射从 Factory 获取的标准名称覆盖 Parser 设置的名称而不改变实际的输入索引和描述。4.3 属性系统AscendIR 的属性系统基于AttrStore底层使用 protobuf 的mapstring, AttrDef存储。支持多种属性类型int、float、string、bool、list、tensor 等通过AttrUtils工具类提供类型安全的访问接口。属性可以附加在任何对象上——ComputeGraph、OpDesc、GeTensorDesc 都支持属性。这意味着编译器可以通过属性传递编译状态信息如内存偏移、流分配结果、融合标记等而无需修改 IR 的核心数据结构。4.4 IR 元数据与算子注册的解耦IRMetaData记录了算子的 IR 层面信息输入/输出的 IR 名称和类型固定/动态/可选、属性名称、子图 IR 名称和类型。这些信息在算子注册时由算子原型OpProto提供在创建 OpDesc 时被复制到实例中。这一层抽象使得 OpDesc 可以在不依赖算子定义仓库的情况下独立存在。算子定义在独立的 .so 文件中通过OpsProtoManager动态加载GE 只需要在编译时查找已注册的算子信息。5. 算子注册与工厂模式5.1 注册机制AscendIR 的算子注册采用自动注册模式算子定义仓库(.so) ──dlopen──→ OperatorFactoryImpl全局注册表 ↓ CreateOperator按类型查找 creator ↓ OpDesc实例化的算子描述OperatorFactoryImpl维护了一系列全局静态的shared_ptrmapstring, FuncTypeoperator_creators_v2_算子创建函数按类型名查找operator_infershape_funcs_形状推导函数operator_inferformat_funcs_格式推导函数operator_verify_funcs_校验函数算子在独立仓库中通过REG_OP宏注册编译为.so文件在运行时由OpsProtoManager加载。OpsProtoManager::Initialize从配置的ge.opsProtoLibPath路径加载所有算子.so调用其中的注册函数。5.2 算子定义独立于 GE 的设计考量算子定义被拆分到独立仓库如 ops-math、ops-transformer主要原因包括多场景共享同一个算子定义需要在多个场景使用——aclnn单算子直调、GE入图编译、调试工具。独立迭代算子的新增和修改频率远高于图引擎。将算子定义独立出来可以在不重新编译 GE 的情况下添加新算子只需替换 .so。插件化架构昇腾 NPU 产品线有不同的算子支持集合。通过动态加载算子 .so不同硬件配置可以加载不同的算子集合。离线编译支持GE 的编译功能可以在无设备的环境下运行离线编译算子 .so 的加载是延迟的不需要在编译时全部加载。算子注册信息的查找是运行时的 map 查找但相较于图编译的整体耗时这一开销可以忽略。5.3 注册的覆写机制注册覆写is_register_overridable允许在加载新的算子 .so 时同名算子的注册函数覆写已有注册。这在不重启进程的情况下更新算子定义时非常有用如热补丁场景。加载完成后覆写机制关闭防止运行时意外修改。6. 张量描述GeTensorDesc6.1 设计GeTensorDesc 描述一个张量的元信息ShapeGeShape张量的维度信息DataType数据类型支持从 FP32 到各种低精度格式如 FP8/FP4/INT4/INT2 等Format数据排布格式NCHW、NHWC、ND 等包含昇腾特有的 5D/6D 格式Origin信息origin_shape、origin_format、origin_data_type记录优化前的原始信息扩展元数据通过 ext_meta_size、weight_size、reuse_input、data_offset、device_type 等GeTensorDesc 使用了 Pimpl 模式通过GeTensorDescImpl使其可以在不影响 API 的情况下修改内部实现。6.2 序列化GeTensorDesc 的序列化通过GeTensorSerializeUtils::GeTensorDescAsProto实现将各字段写入 protobuf 的TensorDescriptor。序列化时需要处理扩展元数据直接映射到 proto 字段属性通过AttrGroupSerialize序列化到 proto 的 attr maporigin 信息通过特殊属性键存储在 attr map 中DataType 映射通过kDataTypeMap静态表实现包含 30 种数据类型的映射7. 图的序列化7.1 架构AscendIR 的序列化基于 protobuf核心 proto 定义在ge_ir.proto中ModelDef ├── GraphDef │ ├── OpDef[] 节点 │ │ ├── name, type, id, stream_id │ │ ├── input[] 前驱节点引用格式为 node_name:output_index │ │ ├── input_desc[], output_desc[] 张量描述 │ │ └── attr{} 属性映射 │ └── attr{} └── attr{}ModelSerializeImp负责序列化的核心逻辑SerializeOpDesc将 OpDesc 序列化为 OpDef protoSerializeEdge遍历节点的所有 InDataAnchor 和 InControlAnchor将前驱节点信息编码为 节点名:输出索引 格式的字符串反序列化时先创建所有节点再根据 input 字符串重建锚点连接7.2 序列化的设计选择边的序列化采用节点名称引用方式node_name:output_index而非序列化锚点本身。这意味着序列化后的数据是自包含的——不需要额外的边表反序列化时需要一次全局的名称查找来重建连接控制边通过索引 -1 标识node_name:-1这一设计在序列化效率和重建效率之间取得了平衡。对于 GE 的典型图规模数千到数万节点名称查找的开销是可接受的。7.3 属性序列化属性序列化采用类型分发模式AttrSerializerRegistry注册了每种属性类型int、float、string、tensor、graph 等的序列化器。每种类型有独立的 Serializer 类如 IntSerializer、FloatSerializer、TensorSerializer实现Serialize(AnyValue → AttrDef)和Deserialize(AttrDef → AnyValue)方法。这种设计支持扩展——新的属性类型只需注册新的序列化器不需要修改序列化框架。8. 图工具类graph/utils/目录提供了丰富的图操作工具GraphUtils图级别的操作AddEdge、RemoveEdge、ReplaceEdgeSrc、CopyGraph、DumpGraph 等NodeUtils节点级别的操作GetInDataNodes、MoveOutputEdges、IsAnchorStatusSet 等OpDescUtilsOpDesc 操作SetSubgraphInstanceName、ClearInDesc 等TensorUtils张量操作CalcTensorMemSize 等AnchorUtils锚点操作GetStatus、SetStatus、GetIdxTypeUtils类型转换DataType ↔ 字符串、Format ↔ 字符串这些工具类大多以静态方法的形式提供采用函数式风格不持有状态。这是 AscendIR 设计中的一个惯用模式核心对象Graph/Node/OpDesc/Anchor提供数据访问接口工具类提供复合操作。9. AscendIR 设计的核心设计原则总结锚点优于边连接关系内嵌于节点避免独立边的生命周期管理复杂性静态图 属性扩展核心结构是静态的 DAG动态信息通过属性系统附加算子与引擎解耦算子定义通过动态加载注册GE 只消费注册结果Pimpl 隔离所有核心类使用 Impl 类分离接口和实现支持 ABI 稳定weak_ptr 防环Anchor 和 Node 对父图的引用使用 weak_ptr避免循环引用导致的内存泄漏名称 索引双寻址OpDesc 的输入输出同时支持按名称和按索引访问适配不同前端框架的习惯理解了 AscendIR 的图结构、锚点系统、算子注册和序列化机制后读者已经掌握了 IR 中哪些信息是编译器需要消费的——节点拓扑、张量描述、属性、推导函数。下一个模块将揭示这些信息进入编译器后经过哪些阶段处理从图合法性校验、形状推导、算子融合到内存规划和流分配。【免费下载链接】geGEGraph Engine是面向昇腾的图编译器和执行器提供了计算图优化、多流并行、内存复用和模型下沉等技术手段加速模型执行效率减少模型内存占用。 GE 提供对 PyTorch、TensorFlow 前端的友好接入能力并同时支持 onnx、pb 等主流模型格式的解析与编译。项目地址: https://gitcode.com/cann/ge创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

相关文章:

CANN/ge:AscendIR图引擎中间表示设计

AscendIR — 图引擎的中间表示设计 【免费下载链接】ge GE(Graph Engine)是面向昇腾的图编译器和执行器,提供了计算图优化、多流并行、内存复用和模型下沉等技术手段,加速模型执行效率,减少模型内存占用。 GE 提供对 P…...

CANN/cannbot-skills Flash Attention内核深度分析

Deep Note: agent/example/kernels/a2/flash_attn_full_pj_hif8_commonub.py 【免费下载链接】cannbot-skills CANNBot 是面向 CANN 开发的用于提升开发效率的系列智能体,本仓库为其提供可复用的 Skills 模块。 项目地址: https://gitcode.com/cann/cannbot-skill…...

从开发者视角体验Taotoken文档中Python与Node示例的易用性

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 从开发者视角体验Taotoken文档中Python与Node示例的易用性 作为一名刚接触大模型API的开发者,我最近注册并尝试了Taoto…...

医疗AI公平性挑战:破解非洲部署中的数据偏见与技术鸿沟

1. 项目概述:当AI遇见非洲医疗,公平性为何成为一道必答题?如果你关注过全球医疗科技的前沿,一定会对人工智能(AI)在影像诊断、药物研发和个性化治疗中展现的潜力感到兴奋。但当我们把目光投向非洲大陆&…...

Fairseq-Dense-13B-Janeway入门必看:Temperature/Top-p参数调优对创意写作影响的实测分析

Fairseq-Dense-13B-Janeway入门必看:Temperature/Top-p参数调优对创意写作影响的实测分析 1. 模型简介与快速上手 Fairseq-Dense-13B-Janeway是KoboldAI发布的130亿参数创意写作大模型,专门针对科幻与奇幻题材进行优化训练。该模型使用2210本科幻与奇幻…...

偏导数与梯度向量:多维空间变化率的本质与应用

1. 理解偏导数与梯度向量的核心价值第一次接触偏导数这个概念时,我正试图优化一个简单的二元函数模型。当时完全不明白为什么需要对每个变量"单独求导",直到看到梯度下降法的实际应用才恍然大悟。偏导数和梯度向量远不止是数学课本上的抽象符号…...

Taotoken提供的标准OpenAI协议兼容性实际体验分享

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 Taotoken提供的标准OpenAI协议兼容性实际体验分享 在将应用从直接调用单一模型厂商的接口迁移到聚合平台时,开发者最关…...

Oumuamua-7b-RP真实作品:基于‘贵族女仆’设定的料理指导+生活关怀对话

Oumuamua-7b-RP真实作品:基于贵族女仆设定的料理指导生活关怀对话 1. 项目介绍 Oumuamua-7b-RP 是一款专为日语角色扮演对话设计的Web界面应用,基于Mistral-7B大语言模型架构开发。它能够模拟各种角色进行自然流畅的对话,特别适合创建沉浸式…...

通过用量看板观察不同模型API调用的Token消耗与成本分布

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 通过用量看板观察不同模型API调用的Token消耗与成本分布 对于使用多个大模型API的开发者而言,清晰、透明地掌握每一次调…...

生成式AI社会风险评估:从技术原理到治理框架的实践指南

1. 生成式AI的社会技术风险全景:从技术原理到现实挑战生成式AI,特别是以GPT系列、Claude等为代表的大语言模型,已经从一个前沿研究课题,迅速演变为重塑信息生产、分发与消费方式的核心技术。作为一名长期关注信息检索与内容系统演…...

Phi-4-mini-flash-reasoning行业落地:IT运维故障逻辑链自动推演案例

Phi-4-mini-flash-reasoning行业落地:IT运维故障逻辑链自动推演案例 1. 引言:IT运维的痛点与AI解决方案 IT运维工程师每天都要面对各种系统故障,从服务器宕机到网络异常,从数据库连接失败到应用性能下降。传统排查方式依赖工程师…...

Taotoken的APIKey管理与访问控制功能切实提升了安全性

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 Taotoken的APIKey管理与访问控制功能切实提升了安全性 在构建基于大模型的应用时,API密钥的管理与访问控制是项目安全架…...

CANN/driver DCMI设备cgroup信息获取

dcmi_get_device_cgroup_info 【免费下载链接】driver 本项目是CANN提供的驱动模块,实现基础驱动和资源管理及调度等功能,使能昇腾芯片。 项目地址: https://gitcode.com/cann/driver 函数原型 int dcmi_get_device_cgroup_info(int card_id, in…...

Oumuamua-7b-RP效果展示:温度0.3 vs 1.2下角色性格稳定性对比实测

Oumuamua-7b-RP效果展示:温度0.3 vs 1.2下角色性格稳定性对比实测 1. 测试背景与目的 Oumuamua-7b-RP 是一个基于Mistral-7B架构的日语角色扮演专用大语言模型,专为沉浸式角色对话体验设计。本次测试将重点对比不同温度参数(0.3与1.2&#…...

自动驾驶AI算法演进:从L0到L5的技术跃迁与工程挑战

1. 自动驾驶AI算法演进:从辅助到全能的逻辑跃迁 自动驾驶,这个曾经只存在于科幻电影中的概念,如今正以前所未有的速度驶入现实。作为一名在汽车电子与智能驾驶领域摸爬滚打了十多年的工程师,我亲眼见证了这场技术革命是如何从实验…...

新能源车维修成本畸高,行业垄断与技术壁垒让车主陷入“买得起修不起“困境

最近朋友圈里一位朋友吐槽,他的特斯拉Model Y倒车时不小心蹭了一下墙角,去4S店报价20万维修费。要知道这车当时买也就28万,修一下车就快赶上车价的一半了。他苦笑着说:"这哪是修车,简直是半卖半送啊!&…...

Orangutan算法:仿生视觉注意力机制在计算机视觉中的应用

1. 项目概述:当计算机开始“像猴子一样看世界”在计算机视觉领域,我们一直在追求让机器“看得更准”、“理解更深”。从早期的边缘检测、SIFT特征点,到如今席卷一切的深度卷积神经网络,模型的性能在标准数据集上屡创新高。但不知道…...

新手教程使用Python和OpenAI兼容SDK五分钟接入Taotoken大模型服务

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 新手教程使用Python和OpenAI兼容SDK五分钟接入Taotoken大模型服务 本文面向刚开始接触大模型API调用的开发者,旨在提供…...

大模型参数规模与性能的非线性关系:从规模迷信到精准设计

1. 项目概述:从“大力出奇迹”到“精打细算”的模型规模探索在AI领域,尤其是大语言模型(LLM)的研发竞赛中,“参数规模”一度被视为衡量模型能力的黄金标准。从业者们普遍信奉“规模定律”,认为只要堆叠更多…...

CANN/torchtitan-npu版本策略

版本策略(Versioning Policy) 【免费下载链接】torchtitan-npu Ascend Extension for torchtitan 项目地址: https://gitcode.com/cann/torchtitan-npu torchtitan-npu 采用“分支 commit 基线”的方式与上游 torchtitan 保持对齐。 本政策用于定…...

CANN ops-cv图模式适配指南

图模式适配指南 【免费下载链接】ops-cv 本项目是CANN提供的图像处理、目标检测相关的算子库,实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-cv 概述 本文档介绍自定义算子的图模式适配方法,整体流程与算子开发指南&#x…...

CANN运行时Stream管理

Stream管理 【免费下载链接】runtime 本项目提供CANN运行时组件和维测功能组件。 项目地址: https://gitcode.com/cann/runtime Stream概念 Stream描述了一个在Host下发并在Device上执行的任务队列。 在同一个Stream中,任务按照进入队列的顺序依次执行。当…...

RankSpot 全自动 AI 智能体技术架构与核心机制深度解析

摘要 RankSpot 作为面向 SEO 内容生产的全自动 AI 智能体,构建了 “关键词研究 - 内容生成 - SEO 优化 - 自动发布 - 数据监控” 的端到端技术闭环。本文从技术底层出发,系统拆解 RankSpot 的整体架构、核心技术模块、智能体工作流、算法模型选型、数据…...

2026年程序员必看:6条AI独立开发实战路径,从0到月入3万+(收藏版)

本文分享了6条程序员转型AI独立开发的实战路径,包括AI工具开发、开源项目变现、外包接单、内容创作、AI Agent产品和垂直行业解决方案。每条路径都包含核心逻辑、真实案例、工具推荐、收入预估和避坑要点,旨在帮助程序员在6个月内实现月入3万的目标。文章…...

CANN/ops-transformer贡献指南

贡献指南 【免费下载链接】ops-transformer 本项目是CANN提供的transformer类大模型算子库,实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-transformer 本项目欢迎广大开发者体验并参与贡献,在参与社区贡献之前。请参见cann…...

CANN/asc-devkit Arange索引生成函数

Arange 【免费下载链接】asc-devkit 本项目是CANN 推出的昇腾AI处理器专用的算子程序开发语言,原生支持C和C标准规范,主要由类库和语言扩展层构成,提供多层级API,满足多维场景算子开发诉求。 项目地址: https://gitcode.com/can…...

从引文指标到AI评估:构建科研影响力量化评估的完整方法论

1. 项目概述:当“影响力”变得可计算在学术圈和科研管理领域,我们每天都在谈论“影响力”。一篇论文的影响力有多大?一个学者的贡献如何衡量?一个研究机构的实力怎么评估?过去,这更多是一种基于同行声誉的模…...

CANN/atvoss Sqrt开平方运算API文档

Sqrt 【免费下载链接】atvoss ATVOSS(Ascend C Templates for Vector Operator Subroutines)是一套基于Ascend C开发的Vector算子库,致力于为昇腾硬件上的Vector类融合算子提供极简、高效、高性能、高拓展的编程方式。 项目地址: https://g…...

CANN/pyasc矩阵乘法迭代方法

asc.language.adv.Matmul.iterate 【免费下载链接】pyasc 本项目为Python用户提供算子编程接口,支持在昇腾AI处理器上加速计算,接口与Ascend C一一对应并遵守Python原生语法。 项目地址: https://gitcode.com/cann/pyasc Matmul.iterate(en_parti…...

CANN/pypto concat操作

pypto.concat 【免费下载链接】pypto PyPTO(发音: pai p-t-o):Parallel Tensor/Tile Operation编程范式。 项目地址: https://gitcode.com/cann/pypto 产品支持情况 产品是否支持Ascend 950PR/Ascend 950DT√Atlas A3 训练系列产品/A…...