当前位置: 首页 > article >正文

CANN/tensorflow精度调优配置

精度调优【免费下载链接】tensorflowAscend TensorFlow Adapter项目地址: https://gitcode.com/cann/tensorflowprecision_mode_v2算子精度模式配置要求为string类型。fp16表示原图中算子精度为float16、bfloat16或float32时强制选择float16。origin保持原图精度。如果原图中某算子精度为float16AI Core中该算子的实现不支持float16、仅支持float32和bfloat16则系统内部会自动采用高精度float32。如果原图中某算子精度为float16AI Core中该算子的实现不支持float16、仅支持bfloat16则会使用float16的AI CPU算子如果AI CPU算子也不支持则执行报错。如果原图中某算子精度为float32AI Core中该算子的实现不支持float32类型、仅支持float16类型则会使用float32的AI CPU算子如果AI CPU算子也不支持则执行报错。cube_fp16in_fp32outAI Core中该算子既支持float32又支持float16数据类型时系统内部根据算子类型不同选择不同的处理方式。对于矩阵计算类算子系统内部会按算子实现的支持情况处理优先选择输入数据类型为float16且输出数据类型为float32如果1中的场景不支持则选择输入数据类型为float32且输出数据类型为float32如果2中的场景不支持则选择输入数据类型为float16且输出数据类型为float16如果3中的场景不支持则报错。对于矢量计算类算子表示原图中算子精度为float16或bfloat16强制选择float32。如果原图中存在部分算子在AI Core中该算子的实现不支持float32比如某算子仅支持float16类型则该参数不生效仍然使用支持的float16如果在AI Core中该算子的实现不支持float32且又配置了黑名单precision_reduce false则会使用float32的AI CPU算子如果AI CPU算子也不支持则执行报错。mixed_float16表示使用混合精度float16、bfloat16和float32数据类型来处理神经网络。针对原图中float32和bfloat16数据类型的算子按照内置的优化策略自动将部分float32和bfloat16的算子降低精度到float16从而在精度损失很小的情况下提升系统性能并减少内存使用。开启该功能开关后用户可以同时使能Loss Scaling从而补偿降低精度带来的精度损失。mixed_bfloat16表示使用混合精度bfloat16和float32数据类型来处理神经网络。针对原图中float32数据类型的算子按照内置的优化策略自动将部分float32的算子降低精度到bfloat16从而在精度损失很小的情况下提升系统性能并减少内存使用如果算子不支持bfloat16和float32则使用AI CPU算子进行计算如果AI CPU算子也不支持则执行报错。说明仅Ascend 950PR/Ascend 950DTAtlas A3 训练系列产品/Atlas A3 推理系列产品Atlas A2 训练系列产品/Atlas A2 推理系列产品支持此配置。mixed_hif8开启自动混合精度功能表示混合使用hifloat8此数据类型介绍可参见Link、float16、bfloat16和float32数据类型来处理神经网络。针对原图中float16、bfloat16和float32数据类型的算子按照内置的优化策略自动将部分float16、bfloat16和float32的算子降低精度到hifloat8从而在精度损失很小的情况下提升系统性能并减少内存使用。当前版本不支持该选项。说明仅Ascend 950PR/Ascend 950DT支持此配置。cube_hif8表示若原图中的cube算子既支持hifloat8又支持float16、bfloat16或float32数据类型时强制选择hifloat8数据类型。当前版本不支持该选项。说明仅Ascend 950PR/Ascend 950DT支持此配置。训练场景下针对Ascend 950PR/Ascend 950DT该配置项默认值为“origin”。针对Atlas A3 训练系列产品/Atlas A3 推理系列产品该配置项默认值为“origin”。针对Atlas A2 训练系列产品/Atlas A2 推理系列产品该配置项默认值为“origin”。针对Atlas 训练系列产品该配置项无默认取值以“precision_mode”参数的默认值为准即“allow_fp32_to_fp16”。在线推理场景下该配置项默认值为“fp16”。配置示例custom_op.parameter_map[precision_mode_v2].s tf.compat.as_bytes(origin)说明该参数不能与“precision_mode”参数同时使用建议使用“precision_mode_v2”参数。在使用此参数设置整个网络的精度模式时可能会存在个别算子存在精度问题此种场景下建议通过keep_dtype_scope接口设置某些算子保持原图精度。混合精度场景下算子的内置优化策略可参见“modify_mixlist”参数的详细说明。bfloat16数据类型不支持以下产品Atlas 训练系列产品Atlas 推理系列产品precision_mode算子精度模式配置要求为string类型。allow_fp32_to_fp16对于矩阵类算子如果原图中算子精度为float32优先降低精度到float16如果AI Core中算子不支持float16则继续选择float32如果AI Core中算子不支持float32则使用AI CPU算子进行计算如果AI CPU算子也不支持则执行报错。如果原图中算子精度为bfloat16则优先使用原图精度bfloat16如果AI Core中算子不支持bfloat16则选择float32如果AI Core中算子不支持float32则直接降低精度到float16如果AI Core中算子不支持float16则使用AI CPU算子进行计算如果AI CPU算子也不支持则执行报错。对于矢量类算子优先保持原图精度如果原图中算子精度为float32则优先使用原图精度float32如果AI Core中算子不支持float32则直接降低精度到float16如果AI Core中算子不支持float16则使用AI CPU算子进行计算如果AI CPU算子也不支持则执行报错。如果原图中算子精度为bfloat16则优先使用原图精度bfloat16如果AI Core中算子不支持bfloat16则选择float32如果AI Core中算子不支持float32则直接降低精度到float16如果AI Core中算子不支持float16则使用AI CPU算子进行计算如果AI CPU算子也不支持则执行报错。force_fp16算子同时支持float16、bfloat16和float32数据类型时强制选择float16数据类型。此参数仅适用于在线推理场景。force_fp32/cube_fp16in_fp32out配置为force_fp32或cube_fp16in_fp32out效果等同该选项用来表示AI Core中该算子既支持float32又支持float16数据类型时系统内部都会根据算子类型不同选择不同的处理方式。cube_fp16in_fp32out为新版本中新增的对于矩阵计算类算子该选项语义更清晰。对于矩阵计算类算子系统内部会按算子实现的支持情况处理优先选择输入数据类型为float16且输出数据类型为float32如果1中的场景不支持则选择输入数据类型为float32且输出数据类型为float32如果2中的场景不支持则选择输入数据类型为float16且输出数据类型为float16如果3中的场景不支持则报错。对于矢量计算类算子表示原图中算子精度为float16或bfloat16强制选择float32。如果原图中存在部分算子在AI Core中该算子的实现不支持float32比如某算子仅支持float16类型则该参数不生效仍然使用支持的float16如果在AI Core中该算子的实现不支持float32且又配置了黑名单precision_reduce false则会使用float32的AI CPU算子如果AI CPU算子也不支持则执行报错。must_keep_origin_dtype保持原图精度。如果原图中某算子精度为float16AI Core中该算子的实现不支持float16、仅支持float32和bfloat16则系统内部会自动采用高精度float32。如果原图中某算子精度为float16AI Core中该算子的实现不支持float16、仅支持bfloat16则会使用float16的AI CPU算子如果AI CPU算子也不支持则执行报错。如果原图中某算子精度为float32AI Core中该算子的实现不支持float32类型、仅支持float16类型则会使用float32的AI CPU算子如果AI CPU算子也不支持则执行报错。allow_mix_precision_fp16/allow_mix_precision配置为allow_mix_precision或allow_mix_precision_fp16效果等同均表示使用混合精度float16、bfloat16和float32数据类型来处理神经网络的过程。allow_mix_precision_fp16为新版本中新增的语义更清晰便于理解。针对原始模型中float32和bfloat16数据类型的算子按照内置的优化策略自动将部分float32和bfloat16的算子降低精度到float16从而在精度损失很小的情况下提升系统性能并减少内存使用。allow_mix_precision_bf16表示使用混合精度bfloat16和float32数据类型来处理神经网络的过程。针对原始模型中float32数据类型的算子按照内置的优化策略自动将部分float32的算子降低精度到bfloat16从而在精度损失很小的情况下提升系统性能并减少内存使用如果AI Core中算子不支持bfloat16和float32则使用AI CPU算子进行计算如果AI CPU算子也不支持则执行报错。说明仅Ascend 950PR/Ascend 950DTAtlas A3 训练系列产品/Atlas A3 推理系列产品Atlas A2 训练系列产品/Atlas A2 推理系列产品支持此配置。allow_fp32_to_bf16如果原图中算子精度为float32则优先使用原图精度float32如果AI Core中算子不支持float32则降低精度到bfloat16如果AI Core中算子不支持bfloat16则使用AI CPU算子进行计算如果AI CPU算子也不支持则执行报错。如果原图中算子精度为bfloat16则优先使用原图精度bfloat16如果AI Core中算子不支持bfloat16则选择float32如果AI Core中算子不支持float32则使用AI CPU算子进行计算如果AI CPU算子也不支持则执行报错。说明Ascend 950PR/Ascend 950DTAtlas A3 训练系列产品/Atlas A3 推理系列产品Atlas A2 训练系列产品/Atlas A2 推理系列产品支持此配置。训练场景下针对Ascend 950PR/Ascend 950DT默认配置项为“must_keep_origin_dtype”。针对Atlas A3 训练系列产品/Atlas A3 推理系列产品默认配置项为“must_keep_origin_dtype”。针对Atlas A2 训练系列产品/Atlas A2 推理系列产品默认值为“must_keep_origin_dtype”。针对Atlas 训练系列产品默认值为“allow_fp32_to_fp16”。在线推理场景下默认值为“force_fp16”。配置示例custom_op.parameter_map[precision_mode].s tf.compat.as_bytes(allow_mix_precision)说明该参数不能与“precision_mode_v2”参数同时使用建议使用“precision_mode_v2”参数。在使用此参数设置整个网络的精度模式时可能会存在个别算子存在精度问题。训练场景下建议通过keep_dtype_scope接口设置某些算子保持原图精度。推理场景下建议通过keep_tensors_dtypes接口设置某些算子保持原图精度。混合精度场景下算子的内置优化策略可参见“modify_mixlist”参数的详细说明。bfloat16数据类型不支持以下产品Atlas 训练系列产品Atlas 推理系列产品modify_mixlist开启混合精度的场景下开发者可通过此参数指定混合精度黑白灰名单的路径以及文件名自行指定哪些算子允许降精度哪些算子不允许降精度。用户可以在脚本中通过配置“precision_mode_v2”推荐参数或者“precision_mode”参数开启混合精度。黑白灰名单存储文件为JSON格式配置示例如下custom_op.parameter_map[modify_mixlist].s tf.compat.as_bytes(/home/test/ops_info.json)ops_info.json中可以指定算子类型多个算子使用英文逗号分隔样例如下{ black-list: { // 黑名单 to-remove: [ // 黑名单算子转换为灰名单算子 Xlog1py ], to-add: [ // 白名单或灰名单算子转换为黑名单算子 MatMul, Cast ] }, white-list: { // 白名单 to-remove: [ // 白名单算子转换为灰名单算子 Conv2D ], to-add: [ // 黑名单或灰名单算子转换为白名单算子 Bias ] } }说明上述配置文件样例中展示的算子仅作为参考请基于实际硬件环境和具体的算子内置优化策略进行配置。混合精度场景下算子的内置优化策略可在“CANN软件安装目录/opp/built-in/op_impl/ai_core/tbe/config/soc_version/aic-soc_version-ops-info-opType.json“文件中查询例如Conv2D:{ precision_reduce:{ flag:true }, ... }true白名单表示混合精度模式下允许当前算子降低精度。false黑名单表示混合精度模式下不允许当前算子降低精度。不配置灰名单表示当前算子的混合精度处理机制和前一个算子保持一致即如果前一个算子支持降精度处理当前算子也支持降精度如果前一个算子不允许降精度当前算子也不支持降精度。customize_dtypes使用precision_mode_v2或precision_mode参数设置整个网络的精度模式时可能会存在个别算子存在精度问题此种场景下可以使用customize_dtypes参数配置个别算子的精度模式而模型中的其他算子仍以precision_mode_v2或precision_mode指定的精度模式进行编译。需要注意当precision_mode_v2取值为“origin”或precision_mode取值为“must_keep_origin_dtype”时customize_dtypes参数不生效。该参数需要配置为配置文件路径及文件名例如/home/test/customize_dtypes.cfg。配置示例custom_op.parameter_map[customize_dtypes].s tf.compat.as_bytes(/home/test/customize_dtypes.cfg)配置文件中列举需要自定义计算精度的算子名称或算子类型每个算子单独一行且算子类型必须为基于Ascend IR定义的算子的类型。对于同一个算子如果同时配置了算子名称和算子类型编译时以算子名称为准。配置文件格式要求# 按照算子名称配置 Opname1::InputDtype:dtype1,dtype2,…OutputDtype:dtype1,… Opname2::InputDtype:dtype1,dtype2,…OutputDtype:dtype1,… # 按照算子类型配置 OpType::TypeName1:InputDtype:dtype1,dtype2,…OutputDtype:dtype1,… OpType::TypeName2:InputDtype:dtype1,dtype2,…OutputDtype:dtype1,…配置文件配置示例# 按照算子名称配置 resnet_v1_50/block1/unit_3/bottleneck_v1/Relu::InputDtype:float16,int8,OutputDtype:float16,int8 # 按照算子类型配置 OpType::Relu:InputDtype:float16,int8,OutputDtype:float16,int8说明算子具体支持的计算精度可以从算子信息库中查看默认存储路径为CANN软件安装后文件存储路径的opp/built-in/op_impl/ai_core/tbe/config/soc_version/aic-soc_version-ops-info-opType.json。通过该参数指定的优先级高因此可能会导致精度/性能的下降如果指定的dtype不支持会导致编译失败。若通过算子名称进行配置由于模型编译过程中会进行融合、拆分等优化操作可能会导致算子名称发生变化进而导致配置不生效未达到精度提升的目的。此种场景下可进一步通过获取日志进行问题定位关于日志的详细说明请参见《日志参考》。【免费下载链接】tensorflowAscend TensorFlow Adapter项目地址: https://gitcode.com/cann/tensorflow创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

相关文章:

CANN/tensorflow精度调优配置

精度调优 【免费下载链接】tensorflow Ascend TensorFlow Adapter 项目地址: https://gitcode.com/cann/tensorflow precision_mode_v2 算子精度模式,配置要求为string类型。 fp16:表示原图中算子精度为float16、bfloat16或float32时&#xff0c…...

RePKG深度解析:3步解锁Wallpaper Engine壁纸资源的专业指南

RePKG深度解析:3步解锁Wallpaper Engine壁纸资源的专业指南 【免费下载链接】repkg Wallpaper engine PKG extractor/TEX to image converter 项目地址: https://gitcode.com/gh_mirrors/re/repkg 你是否曾经对Wallpaper Engine中精美的动态壁纸资源感到好奇…...

ClawLayer:网络抽象层如何解耦应用与底层通信复杂性

1. 项目概述:ClawLayer,一个为现代应用而生的网络抽象层最近在折腾一个分布式数据采集项目,遇到了一个老生常谈但又极其棘手的问题:如何让应用层代码优雅地适应底层网络环境的复杂多变?无论是切换代理、处理SSL证书验证…...

CANN/pyasc带转置数据加载API文档

asc.language.basic.load_data_with_transpose 【免费下载链接】pyasc 本项目为Python用户提供算子编程接口,支持在昇腾AI处理器上加速计算,接口与Ascend C一一对应并遵守Python原生语法。 项目地址: https://gitcode.com/cann/pyasc asc.languag…...

CANN稀疏矩阵算子库

ops-sparse 【免费下载链接】ops-sparse 本项目是CANN提供的高性能稀疏矩阵计算的算子库,专注于优化稀疏矩阵的计算效率。 项目地址: https://gitcode.com/cann/ops-sparse 🔥Latest News [2026/05] ops-sparse项目上线,提供稀疏矩阵…...

CANN Triton NPU推理后端

Resnet example 运行教程 【免费下载链接】triton-inference-server-ge-backend ge-backend基于triton inference server框架实现对接NPU生态,快速实现传统CV\NLP等模型的服务化。 项目地址: https://gitcode.com/cann/triton-inference-server-ge-backend 模…...

树莓派4B上Kali Linux安装RTL8812AU驱动的完整指南(含国内源优化)

树莓派4B上Kali Linux安装RTL8812AU驱动的完整指南(含国内源优化) 在网络安全测试和渗透评估领域,Kali Linux凭借其丰富的工具集成为从业者的首选系统。而树莓派4B以其便携性和低功耗特性,成为移动安全测试的理想硬件平台。本文将…...

AI算力治理:从技术原理到产业实践,如何管控AI时代的核心资源

1. 算力:AI时代的“新石油”与治理基石在人工智能领域,有一个被反复验证的“苦涩教训”:最根本的进步往往不是来自精巧的算法设计,而是来自简单粗暴地投入更多计算资源。从AlphaGo到GPT-4,每一次AI能力的阶跃式突破&am…...

医疗生成式AI伦理挑战与TREGAI评估清单:从原则到实践

1. 医疗领域生成式AI的伦理挑战与TREGAI评估清单生成式人工智能(Generative AI, GenAI)正在以前所未有的速度重塑医疗健康领域。从ChatGPT撰写病历摘要,到GAN(生成对抗网络)合成医学影像用于数据增强,再到扩…...

基于Transformer的序列标注实战:从NER到魔法咒语识别

1. 项目概述:当NLP遇见魔法世界最近在捣鼓一个挺有意思的NLP小项目,起因是重读《哈利波特》时,看着那些拗口的咒语,突然冒出一个想法:如果让AI来读这些魔法书,它能理解“除你武器”和“阿瓦达索命”之间的区…...

深入PyTorch源码:torch.nn.utils.clip_grad_norm_是如何计算并‘裁剪’梯度的?

深入PyTorch源码:torch.nn.utils.clip_grad_norm_的梯度裁剪机制全解析 在深度学习的训练过程中,梯度爆炸是一个常见且棘手的问题。当神经网络的层数加深,参数数量增多时,反向传播过程中梯度可能会呈指数级增长,最终导…...

保姆级教程:用Python 3.9和OpenXLab CLI/SDK下载AI数据集(附ImageNet-21k实战)

Python 3.9与OpenXLab实战:高效获取AI数据集的完整指南 刚接触AI研究的开发者常会遇到一个现实问题:论文里提到的经典数据集到底该怎么快速获取?ImageNet-21k这类大型数据集动辄几百GB,传统下载方式不仅速度慢,还经常遇…...

AI驱动城市碳排放报告成熟度模型:从数据治理到智能决策

1. 项目概述:从数据迷雾到决策地图最近和几个在环保部门、城市规划院工作的朋友聊天,大家不约而同地提到一个共同的痛点:城市碳排放报告。听起来是个挺“高大上”的活儿,但实际做起来,往往是“数据靠估、报告靠凑、决策…...

ChatGPT与CAQDAS融合:人机协同定性分析工作流实战指南

1. 项目概述:当AI遇到定性研究,一场效率革命“定性分析”这四个字,对于社会学、人类学、心理学、教育学乃至市场研究领域的从业者来说,往往意味着海量的访谈录音、成堆的观察笔记、以及无数个在文本中反复爬梳、编码、寻找模式的深…...

医疗AI公平性:从算法偏见根源到全链路治理的实践指南

1. 项目概述:当AI成为全球健康的“裁判”,我们如何确保它不吹黑哨?在医疗健康这个关乎生命的领域,人工智能正从一个辅助工具,逐渐演变为决策的关键参与者。从预测疾病风险、优化医疗资源,到辅助影像诊断、加…...

多模态模型UniMRG:生成式理解与跨模态语义关联

1. 多模态模型与生成增强理解的技术背景当前AI领域最令人兴奋的突破之一,就是多模态模型从简单的特征拼接发展到真正的跨模态语义理解。传统方法在处理图像-文本这类跨模态任务时,往往采用"各自编码再拼接"的流水线,就像让两个语言…...

边缘计算AI安全防护体系:从架构设计到工程实践

1. 项目概述:当边缘计算遇上AI安全最近几年,边缘计算(MEC)和物联网(IoT)这两个词在技术圈里几乎成了标配。大家聊的都是怎么把算力下沉、怎么让设备更智能、怎么实现毫秒级响应。但说实话,我干了…...

本地大模型Web界面部署指南:基于Hermes WebUI的实践

1. 项目概述:一个为本地大模型打造的现代化Web界面如果你最近在折腾本地部署的大语言模型,比如Llama、Mistral或者Qwen系列,那你大概率经历过这样的场景:好不容易在命令行里把模型跑起来了,看着一行行日志滚动&#xf…...

为ChatGPT-on-Wechat机器人扩展API能力:Apilot插件安装与实战指南

1. 项目概述:为你的微信聊天机器人注入实用API能力如果你正在使用基于ChatGPT-on-Wechat框架搭建自己的微信聊天机器人,并且觉得它除了对话之外,功能上还差点意思,那么这个名为Apilot的插件,可能就是你要找的那块“拼图…...

Fathom-DeepResearch:大语言模型的长程信息检索与知识合成技术

1. 项目背景与核心价值去年在处理一个金融领域的知识图谱项目时,我遇到了一个棘手问题:当需要从数百万份研究报告中提取跨5年时间维度的关联信息时,传统检索系统要么返回碎片化结果,要么陷入"语义重复"的泥潭。这正是Fa…...

Argo CD实战指南:基于GitOps的Kubernetes持续交付核心原理与生产级部署

1. 项目概述:为什么我们需要Argo CD?在云原生和微服务架构成为主流的今天,应用部署的复杂性与日俱增。一个典型的应用可能由十几个甚至几十个微服务组成,每个服务都有自己的配置、镜像版本和依赖关系。传统的部署方式,…...

SALE框架:基于拍卖机制的异构LLM任务分配优化

1. SALE框架概述:基于策略拍卖的异构LLM任务分配在大型语言模型(LLM)应用场景中,任务分配策略直接影响系统性能和计算成本。传统路由方法通常采用静态映射规则,例如根据任务类型或复杂度固定分配模型,这种简…...

AI赋能数字孪生安全:从威胁检测到主动防御的实战解析

1. 项目概述与核心挑战数字孪生(Digital Twin, DT)正在重塑从智能制造到智慧城市的方方面面,它通过创建物理实体的高保真虚拟映射,实现了对现实世界的实时监控、模拟和优化。然而,当万物互联的物联网(IoT&a…...

机器学习结合提丢斯-波得定则预测系外行星与宜居带候选体

1. 项目概述:当机器学习遇见提丢斯-波得定则在系外行星探测这个领域待了十几年,我见过各种预测潜在行星的方法,从复杂的动力学模拟到基于统计的经验模型。但最近几年,一个有趣的趋势是,我们开始把一些“古老”的天文学…...

梯度下降算法:机器学习优化的核心原理与实践

1. 梯度下降:机器学习优化的核心动力第一次接触机器学习时,我被那些能自动识别猫狗图片的算法震撼了。但真正让我着迷的是背后的优化过程——就像教一个孩子学骑自行车,需要不断调整姿势和力度。梯度下降就是这个"教学"过程的核心方…...

Swift测试技能库:模块化设计、异步测试与SwiftUI集成实践

1. 项目概述:一个面向Swift开发者的测试技能库最近在梳理团队内部的iOS项目质量保障体系时,我一直在思考一个问题:如何让单元测试和UI测试不再是开发流程中的“负担”,而是一种高效、可靠甚至有趣的“技能”?尤其是在S…...

IP6525S 最大输出 22.5W,集成快充输出协议(DCP/QC2.0/QC3.0/FCP/AFC/SFCP/MTK/SCP/VOOC)的降压 SOC

1 特性  同步开关降压转换器  内置功率 MOS  输入电压范围:5.2V 到 32V  输出电压范围:3V 到 12V,根据快充协议自动调整  QC 输出功率:最大 18W(5V/3.4A,9V/2A,12V/1.5A) …...

AI与经济学交叉研究:文献计量分析揭示范式革命与前沿趋势

1. 项目概述:当AI遇见经济学,一场静默的范式革命最近几年,我明显感觉到,无论是参加学术会议,还是审阅期刊稿件,一个高频出现的组合越来越扎眼:AI 经济学。这不再是十年前那种“用神经网络预测股…...

AI Agent可靠性评估:核心维度与最佳实践

1. AI Agent可靠性评估的核心维度解析在AI系统日益深入实际应用的今天,评估AI Agent的可靠性已经从单纯的准确率指标发展为多维度的综合评估体系。经过对主流AI模型在GAIA和τ-bench等基准测试上的大量实验分析,我发现可靠性评估需要重点关注以下五个相互…...

IP6520_Q1 36W输出 集成多种快充输出协议的降压SOC 支持 PD2.0/PD3.1/PPS ,QC2.0/QC3.0/QC3+,AFC,FCP

1 特性  符合 AEC-Q100 标准要求  Grade 2: -40℃ ~ 105℃  同步开关降压转换器  内置功率 MOS  输入工作电压范围:7.3V 到 29.5V  输出电压范围:3V~12V  集成输出电压线补功能  输出具有 CV/CC 特性  VIN16V,V…...