当前位置: 首页 > article >正文

从PyTorch到TensorRT:手把手教你将训练好的模型转成.engine文件(附完整代码)

从PyTorch到TensorRT手把手教你将训练好的模型转成.engine文件附完整代码在深度学习模型部署的实践中TensorRT因其出色的推理性能优化能力而备受青睐。许多开发者在使用PyTorch完成模型训练后都希望将其转换为TensorRT的.engine格式以获得更快的推理速度。本文将详细介绍这一转换过程从ONNX导出到最终生成.engine文件涵盖每一步的操作细节和常见问题解决方案。1. 环境准备与工具安装在开始模型转换前需要确保环境配置正确。TensorRT的安装通常需要与CUDA和cuDNN版本匹配这是保证后续步骤顺利进行的基础。推荐环境配置CUDA 11.xcuDNN 8.xTensorRT 8.xPyTorch 1.10安装TensorRT可以通过NVIDIA官方提供的tar包或deb包进行。以Ubuntu系统为例使用deb包安装的命令如下sudo dpkg -i nv-tensorrt-repo-ubuntu1804-cuda11.4-trt8.2.5.1-ga-20220505_1-1_amd64.deb sudo apt-key add /var/nv-tensorrt-repo-ubuntu1804-cuda11.4-trt8.2.5.1-ga-20220505/7fa2af80.pub sudo apt-get update sudo apt-get install tensorrt验证安装是否成功import tensorrt as trt print(trt.__version__) # 应输出安装的TensorRT版本号注意不同版本的TensorRT对PyTorch和ONNX的支持可能有所不同建议查阅官方文档确认版本兼容性。2. 从PyTorch导出ONNX模型ONNXOpen Neural Network Exchange格式是连接PyTorch和TensorRT的桥梁。将PyTorch模型导出为ONNX格式是转换过程的第一步。导出ONNX的关键参数input_names定义输入张量的名称output_names定义输出张量的名称dynamic_axes指定哪些维度是动态的opset_versionONNX算子集版本一个完整的导出示例import torch import torchvision.models as models # 加载预训练模型 model models.resnet50(pretrainedTrue) model.eval() # 创建虚拟输入 dummy_input torch.randn(1, 3, 224, 224) # 导出ONNX模型 torch.onnx.export( model, dummy_input, resnet50.onnx, input_names[input], output_names[output], dynamic_axes{ input: {0: batch_size}, output: {0: batch_size} }, opset_version11 )常见问题及解决方案算子不支持某些PyTorch操作可能没有对应的ONNX实现。解决方法包括使用更高版本的ONNX opset重写模型中使用的不支持算子添加自定义算子实现动态维度处理如果模型需要支持可变输入尺寸务必在dynamic_axes中正确指定。3. ONNX模型验证与优化导出ONNX模型后建议进行验证和优化以确保模型转换的正确性。验证ONNX模型import onnx # 加载ONNX模型 model onnx.load(resnet50.onnx) # 验证模型结构 onnx.checker.check_model(model) # 打印模型信息 print(onnx.helper.printable_graph(model.graph))优化ONNX模型 TensorRT提供了polygraphy工具用于ONNX模型优化polygraphy surgeon sanitize resnet50.onnx -o resnet50_optimized.onnx \ --fold-constants \ --strip优化后的模型通常会移除不必要的节点折叠常量简化计算图减少内存占用4. 使用TensorRT生成.engine文件获得优化后的ONNX模型后就可以使用TensorRT生成最终的.engine文件了。这一过程涉及几个关键决策点精度选择、工作空间大小设置和优化配置。4.1 精度选择TensorRT支持多种精度模式各有优缺点精度模式优点缺点适用场景FP32精度最高速度最慢对精度要求极高的场景FP16速度较快精度损失小需要硬件支持大多数推理场景INT8速度最快需要校准精度损失较大对速度要求极高的场景FP16模式转换示例import tensorrt as trt logger trt.Logger(trt.Logger.WARNING) builder trt.Builder(logger) network builder.create_network(1 int(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH)) parser trt.OnnxParser(network, logger) with open(resnet50_optimized.onnx, rb) as f: parser.parse(f.read()) config builder.create_builder_config() config.set_flag(trt.BuilderFlag.FP16) config.max_workspace_size 1 30 # 1GB engine builder.build_engine(network, config) with open(resnet50.engine, wb) as f: f.write(engine.serialize())4.2 INT8量化INT8量化可以显著提升推理速度但需要额外的校准步骤# 创建校准器 class Calibrator(trt.IInt8EntropyCalibrator2): def __init__(self, calibration_data): super().__init__() self.data calibration_data self.current_index 0 def get_batch_size(self): return 1 def get_batch(self, names): if self.current_index len(self.data): batch self.data[self.current_index] self.current_index 1 return [batch.data_ptr()] else: return None def read_calibration_cache(self): return None def write_calibration_cache(self, cache): pass # 使用校准器构建INT8引擎 config.set_flag(trt.BuilderFlag.INT8) config.int8_calibrator Calibrator(calibration_data)4.3 动态形状处理对于需要支持可变输入尺寸的模型需要特别处理动态形状profile builder.create_optimization_profile() profile.set_shape( input, # 输入名称 (1, 3, 224, 224), # 最小形状 (1, 3, 224, 224), # 最优形状 (32, 3, 224, 224) # 最大形状 ) config.add_optimization_profile(profile)5. 性能调优与常见问题解决生成.engine文件后还需要进行性能调优和验证。以下是一些常见问题的解决方案5.1 性能调优技巧工作空间大小适当增加max_workspace_size可以允许TensorRT尝试更多优化策略但会占用更多内存。层融合策略通过config.set_tactic_sources控制TensorRT使用的优化策略。时序缓存保存优化策略缓存可以加速后续引擎构建。config.set_tactic_sources(1 int(trt.TacticSource.CUBLAS) | 1 int(trt.TacticSource.CUDNN)) # 使用时序缓存 cache builder.create_timing_cache(b) config.set_timing_cache(cache, False)5.2 常见错误与解决方案错误类型可能原因解决方案Unsupported ONNX operatorONNX算子不被TensorRT支持使用插件或自定义层实现Invalid dimensions输入形状不匹配检查ONNX模型输入输出形状Out of memory工作空间不足增加max_workspace_size或减小batch sizeFP16 not supported硬件不支持FP16使用FP32或升级硬件5.3 引擎验证生成引擎后建议进行推理测试验证正确性import pycuda.autoinit import pycuda.driver as cuda # 反序列化引擎 with open(resnet50.engine, rb) as f: runtime trt.Runtime(logger) engine runtime.deserialize_cuda_engine(f.read()) # 创建执行上下文 context engine.create_execution_context() # 准备输入输出 input_bind_idx engine.get_binding_index(input) output_bind_idx engine.get_binding_index(output) # 分配GPU内存 input_host cuda.pagelocked_empty(trt.volume(engine.get_binding_shape(input_bind_idx)), dtypenp.float32) output_host cuda.pagelocked_empty(trt.volume(engine.get_binding_shape(output_bind_idx)), dtypenp.float32) input_device cuda.mem_alloc(input_host.nbytes) output_device cuda.mem_alloc(output_host.nbytes) # 执行推理 stream cuda.Stream() cuda.memcpy_htod_async(input_device, input_host, stream) context.execute_async_v2(bindings[int(input_device), int(output_device)], stream_handlestream.handle) cuda.memcpy_dtoh_async(output_host, output_device, stream) stream.synchronize()在实际项目中从PyTorch到TensorRT的转换往往会遇到各种意想不到的问题。例如某些自定义层可能无法直接转换这时就需要编写TensorRT插件来实现相应功能。另外不同版本的TensorRT对ONNX的支持程度也有所不同遇到问题时查阅官方文档和社区讨论往往能快速找到解决方案。

相关文章:

从PyTorch到TensorRT:手把手教你将训练好的模型转成.engine文件(附完整代码)

从PyTorch到TensorRT:手把手教你将训练好的模型转成.engine文件(附完整代码) 在深度学习模型部署的实践中,TensorRT因其出色的推理性能优化能力而备受青睐。许多开发者在使用PyTorch完成模型训练后,都希望将其转换为Te…...

论文解读:生成式智能体让25个AI小人自己组织了一场情人节派对

有没有想过,一个AI能不能"过日子"?不是回答你的问题,不是帮你写代码,不是在benchmark上刷分——而是真的像一个人那样,早上起来刷牙,出门前和家人聊两句,路上碰到邻居寒暄几句选举八卦…...

别再死记硬背三环了!用Arduino+伺服电机做个机械臂,实战理解位置、速度、力矩模式

用Arduino和伺服电机打造智能机械臂:三环控制实战指南 从理论到实践的跨越 在机器人控制领域,"三环控制"常被视为高深莫测的理论概念,让许多初学者望而却步。传统的教学方式往往停留在数学公式和框图层面,缺乏直观感受。…...

别再手动筛特征了!用PyTorch+LassoNet给你的神经网络做个‘自动瘦身’(附完整代码)

用PyTorchLassoNet实现神经网络特征自动筛选:工程实践全指南 在Kaggle竞赛或实际业务场景中,我们常常面对数百甚至数千个特征变量。传统手工筛选特征不仅耗时费力,还容易遗漏重要特征组合。本文将介绍如何利用LassoNet这一创新工具&#xff0…...

如何在 Taotoken 平台快速获取并管理你的 API Key

如何在 Taotoken 平台快速获取并管理你的 API Key 1. 注册与登录 Taotoken 平台 要开始使用 Taotoken 的服务,首先需要注册一个账号。访问 Taotoken 官方网站完成注册流程,使用邮箱验证后即可登录控制台。登录后你将看到仪表盘界面,这里提供…...

5步掌握TIDAL无损音乐下载:tidal-dl-ng专业工具终极指南

5步掌握TIDAL无损音乐下载:tidal-dl-ng专业工具终极指南 【免费下载链接】tidal-dl-ng TIDAL Media Downloader Next Generation! Up to HiRes / TIDAL MAX 24-bit, 192 kHz. 项目地址: https://gitcode.com/gh_mirrors/ti/tidal-dl-ng 想要在TIDAL平台上获取…...

C++ typename auto 彻底讲透:核心作用、推导规则、避坑指南

本文属于C typename & autod ,上一篇我们讲透了模板进阶的非类型参数、特化与分离编译,今天我们拆解两个最常用但最容易被误解的关键字 ——typename 和 auto。很多 C 开发者每天都在写 template 和 auto it v.begin(); 但很少有人能彻…...

Steam库存管理终极指南:5分钟掌握智能批量操作,效率提升500%

Steam库存管理终极指南:5分钟掌握智能批量操作,效率提升500% 【免费下载链接】Steam-Economy-Enhancer 中文版:Enhances the Steam Inventory and Steam Market. 项目地址: https://gitcode.com/gh_mirrors/ste/Steam-Economy-Enhancer …...

快速免费备份微信聊天记录的完整指南

快速免费备份微信聊天记录的完整指南 【免费下载链接】WeChatExporter 一个可以快速导出、查看你的微信聊天记录的工具 项目地址: https://gitcode.com/gh_mirrors/wec/WeChatExporter 你是否曾经担心手机丢失或损坏导致珍贵的微信聊天记录永远消失?那些与家…...

长期项目使用 Taotoken 后对月度账单可预测性的实际感受

长期项目使用 Taotoken 后对月度账单可预测性的实际感受 在为期数月的项目开发中,我们团队将多个大模型 API 的调用统一接入了 Taotoken 平台。一个最直接的感受是,项目在 AI 调用方面的月度成本变得前所未有的清晰和可预测。这种可预测性并非来自成本的…...

AISMM模型实战指南(企业ESG转型必读白皮书):从目标映射、指标拆解到动态验证的完整链路

更多请点击: https://intelliparadigm.com 第一章:AISMM模型与可持续发展目标 AISMM(Artificial Intelligence for Sustainable Management Model)是一种面向联合国17项可持续发展目标(SDGs)的可解释AI建模…...

AISMM模型不是方法论,而是生存协议:致所有正在烧钱却看不到AI ROI的CEO(限时开放前100份能力成熟度快筛)

更多请点击: https://intelliparadigm.com 第一章:AISMM模型不是方法论,而是生存协议 AISMM(Autonomous Intelligence Security & Maintenance Model)并非传统意义上供团队“选择采用”的工程方法论,而…...

为什么83%的AISMM导入项目失败?SITS2026真实战场数据揭示3大隐形陷阱,你中招了吗?

更多请点击: https://intelliparadigm.com 第一章:SITS2026案例:AISMM驱动的组织变革 在SITS2026国际航天信息系统技术峰会中,欧洲航天局(ESA)与德国航空航天中心(DLR)联合实施的AI…...

AISMM模型选型生死线:3分钟速判你的Benchmark测试是否具备工业级可信度

更多请点击: https://intelliparadigm.com 第一章:AISMM模型选型生死线:3分钟速判你的Benchmark测试是否具备工业级可信度 在大模型落地实践中,Benchmark 测试常被误认为“跑通即可信”。但工业级部署要求的不仅是准确率数字&…...

Dbeaver SQL美化器使用指南

DBeaver 自带强大的 SQL 美化(格式化)功能,一键排版、可深度自定义,也能集成外部美化工具。一、快速使用(一键美化)快捷键(最常用)Windows/Linux:CtrlShiftFmacOS&#x…...

Meta 借助 AI 强化年龄验证,回应欧盟裁决保障未成年人上网安全

Meta 借助 AI 强化年龄验证机制,回应欧盟裁决,多举措保障未成年人上网安全Meta 正在借助一套 AI 系统强化其年龄验证机制。该系统会分析 Instagram 和 Facebook 上的图像与视频,寻找“视觉线索”,如身高和骨骼结构,以识…...

谷歌云推出欺诈防御:reCAPTCHA 全新进化,保障智能网络安全与业务增长

安全与身份认证:谷歌云欺诈防御——reCAPTCHA 的全新进化2026 年 4 月 23 日,谷歌云在 Next ‘26 大会上推出了谷歌云欺诈防御,这是一款适用于智能网络的信任平台,也是 reCAPTCHA 的全新进化。智能网络带来的挑战与应对智能网络借…...

10个关键挑战:如何顺利部署Kohya_ss AI绘画训练框架

10个关键挑战:如何顺利部署Kohya_ss AI绘画训练框架 【免费下载链接】kohya_ss 项目地址: https://gitcode.com/GitHub_Trending/ko/kohya_ss Kohya_ss是一款强大的Stable Diffusion模型训练GUI工具,为AI绘画爱好者和专业创作者提供了便捷的LoRA…...

高效电路板分析工具:OpenBoardView深度解析与实战指南

高效电路板分析工具:OpenBoardView深度解析与实战指南 【免费下载链接】OpenBoardView View .brd files 项目地址: https://gitcode.com/gh_mirrors/op/OpenBoardView OpenBoardView是一款专为电子工程师、维修技术人员和PCB设计爱好者打造的专业级.brd电路板…...

Grid 完全体:从“网格”到“杂志级排版”

那个让我重新思考布局的下午 2022年夏天,设计部丢给我一个官网改版的设计稿。 说实话,看第一眼的时候我是兴奋的——不对称网格、卡片重叠、文字环绕图片、对角线排列……这完全是杂志级别的排版,不再是那些千篇一律的“左边图片右边文字”的营销套餐。 但兴奋只持续了五…...

别再死记硬背了!用Python实战Agent的PEAS模型,手把手教你设计一个智能翻译系统

用Python实战Agent的PEAS模型:构建智能翻译系统的全流程指南 当理论遇上代码,AI学习才能真正落地。想象一下,你正在开发一个能实时翻译电话对话的系统——这不是科幻电影,而是可以用Python实现的智能Agent。本文将带你从零开始&am…...

3分钟掌握百度网盘秒传链接提取:永久文件分享的终极指南

3分钟掌握百度网盘秒传链接提取:永久文件分享的终极指南 【免费下载链接】rapid-upload-userscript-doc 秒传链接提取脚本 - 文档&教程 项目地址: https://gitcode.com/gh_mirrors/ra/rapid-upload-userscript-doc 你是否厌倦了百度网盘分享链接频繁失效…...

告别Keil!用VSCode+Jlink+OpenOCD调试STM32的保姆级教程(附避坑指南)

从Keil到VSCode:STM32开发者的现代化调试工具链迁移指南 如果你已经厌倦了Keil和IAR这类传统IDE的笨重界面和繁琐操作,现在正是转向更轻量、更灵活的VSCode开发环境的最佳时机。本文将带你一步步搭建基于VSCode、Jlink和OpenOCD的完整STM32开发调试环境&…...

Keras模型推理超快

💓 博客主页:瑕疵的CSDN主页 📝 Gitee主页:瑕疵的gitee主页 ⏩ 文章专栏:《热点资讯》 Keras模型推理加速:构建实时AI应用的超快引擎目录Keras模型推理加速:构建实时AI应用的超快引擎 引言&…...

如何解锁惠普OMEN游戏本隐藏性能:OmenSuperHub完整使用指南

如何解锁惠普OMEN游戏本隐藏性能:OmenSuperHub完整使用指南 【免费下载链接】OmenSuperHub 使用 WMI BIOS控制性能和风扇速度,自动解除DB功耗限制。 项目地址: https://gitcode.com/gh_mirrors/om/OmenSuperHub 还在为你的惠普OMEN游戏本性能被限…...

2009-2024年地级市极端天气占比数据

研究表明,气候极端化现象正对经济社会发展构成日益严重的威胁。频繁发生的气象灾害不仅直接影响地方民生和经济运行,还从深层次上对国家整体安全形成挑战。从宏观经济角度看,这类影响已演变为系统性风险,并对信贷流动性、物价稳定…...

对比自行维护与使用Taotoken接入大模型在稳定性上的体感差异

对比自行维护与使用Taotoken接入大模型在稳定性上的体感差异 对于需要稳定调用大模型API的开发者而言,服务的连续性和响应速度是影响开发体验与业务连续性的关键因素。本文将从有过自建代理或直接调用海外API经验的开发者视角出发,分享在接入Taotoken平…...

如何部署OpenClaw?2026年阿里云及Coding Plan配置详细流程

如何部署OpenClaw?2026年阿里云及Coding Plan配置详细流程。OpenClaw作为阿里云生态下新一代的开源AI自动化代理平台,曾用名Moltbot/Clawdbot,凭借“自然语言交互自动化任务执行大模型智能决策”的核心能力,正在重构个人与企业的工…...

2026年OpenClaw如何搭建?阿里云及Coding Plan配置保姆级攻略

2026年OpenClaw如何搭建?阿里云及Coding Plan配置保姆级攻略。OpenClaw作为阿里云生态下新一代的开源AI自动化代理平台,曾用名Moltbot/Clawdbot,凭借“自然语言交互自动化任务执行大模型智能决策”的核心能力,正在重构个人与企业的…...

SWAT-CUP参数率定踩坑实录:从‘按钮灰色’到‘模拟太差’的9个实战解决方案

SWAT-CUP参数率定实战避坑指南:从安装配置到结果优化的全流程解决方案 水文模型参数率定是科研工作中既关键又令人头疼的环节。作为SWAT模型用户,我在过去三年里使用SWAT-CUP完成了七个流域的率定工作,期间踩过的坑比成功的案例还多。这篇文章…...