位置: IT常识 - 正文

pytorch模型(.pt)转onnx模型(.onnx)的方法详解(1)(pytorch模型转tflite)

编辑:rootadmin
pytorch模型(.pt)转onnx模型(.onnx)的方法详解(1)

推荐整理分享pytorch模型(.pt)转onnx模型(.onnx)的方法详解(1)(pytorch模型转tflite),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:pytorch模型转onnx,pytorch模型转paddle,pytorch模型转tflite,pytorch模型转paddle,pytorch模型转paddle,pytorch模型转换,将pytorch模型转化为tensorflow,pytorch模型转换,内容如对您有帮助,希望把文章链接给更多的朋友!

1. pytorch模型转换到onnx模型

2.运行onnx模型

3.比对onnx模型和pytorch模型的输出结果

 我这里重点是第一点和第二点,第三部分  比较容易

首先你要安装 依赖库:onnx 和 onnxruntime,

pip install onnxpip install onnxruntime 进行安装

也可以使用清华源镜像文件安装  速度会快些。

开始:

1. pytorch模型转换到onnx模型

pytorch 转 onnx 仅仅需要一个函数 torch.onnx.export 

torch.onnx.export(model, args, path, export_params, verbose, input_names, output_names, do_constant_folding, dynamic_axes, opset_version)

参数说明:

model——需要导出的pytorch模型args——模型的输入参数,满足输入层的shape正确即可。path——输出的onnx模型的位置。例如‘yolov5.onnx’。export_params——输出模型是否可训练。default=True,表示导出trained model,否则untrained。verbose——是否打印模型转换信息。default=False。input_names——输入节点名称。default=None。output_names——输出节点名称。default=None。do_constant_folding——是否使用常量折叠,默认即可。default=True。dynamic_axes——模型的输入输出有时是可变的,如Rnn,或者输出图像的batch可变,可通过该参数设置。如输入层的shape为(b,3,h,w),batch,height,width是可变的,但是chancel是固定三通道。 格式如下 : 1)仅list(int) dynamic_axes={‘input’:[0,2,3],‘output’:[0,1]} 2)仅dict<int, string> dynamic_axes={‘input’:{0:‘batch’,2:‘height’,3:‘width’},‘output’:{0:‘batch’,1:‘c’}} 3)mixed dynamic_axes={‘input’:{0:‘batch’,2:‘height’,3:‘width’},‘output’:[0,1]}opset_version——opset的版本,低版本不支持upsample等操作。pytorch模型(.pt)转onnx模型(.onnx)的方法详解(1)(pytorch模型转tflite)

转化代码:参考1:

import torchimport torch.nnimport onnxmodel = torch.load('best.pt')model.eval()input_names = ['input']output_names = ['output']x = torch.randn(1,3,32,32,requires_grad=True)torch.onnx.export(model, x, 'best.onnx', input_names=input_names, output_names=output_names, verbose='True')

 参考2:PlainC3AENetCBAM 是网络模型,如果你没有自己的网络模型,可能成功不了

import ioimport torchimport torch.onnxfrom models.C3AEModel import PlainC3AENetCBAMdevice = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")def test(): model = PlainC3AENetCBAM() pthfile = r'/home/joy/Projects/models/emotion/PlainC3AENet.pth' loaded_model = torch.load(pthfile, map_location='cpu') # try: # loaded_model.eval() # except AttributeError as error: # print(error) model.load_state_dict(loaded_model['state_dict']) # model = model.to(device) #data type nchw dummy_input1 = torch.randn(1, 3, 64, 64) # dummy_input2 = torch.randn(1, 3, 64, 64) # dummy_input3 = torch.randn(1, 3, 64, 64) input_names = [ "actual_input_1"] output_names = [ "output1" ] # torch.onnx.export(model, (dummy_input1, dummy_input2, dummy_input3), "C3AE.onnx", verbose=True, input_names=input_names, output_names=output_names) torch.onnx.export(model, dummy_input1, "C3AE_emotion.onnx", verbose=True, input_names=input_names, output_names=output_names)if __name__ == "__main__": test()

直接将PlainC3AENetCBAM替换成需要转换的模型,然后修改pthfile,输入和onnx模型名字然后执行即可。

注意:上面代码中注释的dummy_input2,dummy_input3,torch.onnx.export对应的是多个输入的例子。

在转换过程中遇到的问题汇总

RuntimeError: Failed to export an ONNX attribute, since it's not constant, please try to make things (e.g., kernel size) static if possible

在转换过程中遇到RuntimeError: Failed to export an ONNX attribute, since it's not constant, please try to make things (e.g., kernel size) static if possible的错误。

我成功的案例,我直接把我训练的网络贴上,成功转换,没有from **   import 模型名词这么委婉,合法,我的比较粗暴

import torchimport torch.nnimport onnxfrom torchvision import transformsimport torch.nn as nnfrom torch.nn import Sequential# 添加模型# 设置数据转换方式preprocess_transform = transforms.Compose([ transforms.ToTensor(), # 把数据转换为张量(Tensor) transforms.Normalize( # 标准化,即使数据服从期望值为 0,标准差为 1 的正态分布 mean=[0.5, ], # 期望 std=[0.5, ] # 标准差 )])class CNN(nn.Module): # 从父类 nn.Module 继承 def __init__(self): # 相当于 C++ 的构造函数 # super() 函数是用于调用父类(超类)的一个方法,是用来解决多重继承问题的 super(CNN, self).__init__() # 第一层卷积层。Sequential(意为序列) 括号内表示要进行的操作 self.conv1 = Sequential( nn.Conv2d(in_channels=1, out_channels=64, kernel_size=3, stride=1, padding=1), nn.BatchNorm2d(64), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2) ) # 第二卷积层 self.conv2 = Sequential( nn.Conv2d(in_channels=64, out_channels=128, kernel_size=3, stride=1, padding=1), nn.BatchNorm2d(128), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2) ) # 全连接层(Dense,密集连接层) self.dense = Sequential( nn.Linear(7 * 7 * 128, 1024), nn.ReLU(), nn.Dropout(p=0.5), nn.Linear(1024, 10) ) def forward(self, x): # 正向传播 x1 = self.conv1(x) x2 = self.conv2(x1) x = x2.view(-1, 7 * 7 * 128) x = self.dense(x) return x# 训练# 训练和参数优化# 定义求导函数def get_Variable(x): x = torch.autograd.Variable(x) # Pytorch 的自动求导 # 判断是否有可用的 GPU return x.cuda() if torch.cuda.is_available() else x# 判断是否GPUdevice = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")# device1 = torch.device('cpu')# 定义网络model = CNN()loaded_model = torch.load('save_model/model.pth', map_location='cuda:0')model.load_state_dict(loaded_model)model.eval()input_names = ['input']output_names = ['output']# x = torch.randn(1,3,32,32,requires_grad=True)x = torch.randn(1, 1, 28, 28, requires_grad=True) # 这个要与你的训练模型网络输入一致。我的是黑白图像torch.onnx.export(model, x, 'save_model/model.onnx', input_names=input_names, output_names=output_names, verbose='True')

前提是你要准备好*.pth模型保持文件

输出结果:

graph(%input : Float(1, 1, 28, 28, strides=[784, 784, 28, 1], requires_grad=1, device=cpu), %dense.0.weight : Float(1024, 6272, strides=[6272, 1], requires_grad=1, device=cpu), %dense.0.bias : Float(1024, strides=[1], requires_grad=1, device=cpu), %dense.3.weight : Float(10, 1024, strides=[1024, 1], requires_grad=1, device=cpu), %dense.3.bias : Float(10, strides=[1], requires_grad=1, device=cpu), %33 : Float(64, 1, 3, 3, strides=[9, 9, 3, 1], requires_grad=0, device=cpu), %34 : Float(64, strides=[1], requires_grad=0, device=cpu), %36 : Float(128, 64, 3, 3, strides=[576, 9, 3, 1], requires_grad=0, device=cpu), %37 : Float(128, strides=[1], requires_grad=0, device=cpu)): %input.4 : Float(1, 64, 28, 28, strides=[50176, 784, 28, 1], requires_grad=1, device=cpu) = onnx::Conv[dilations=[1, 1], group=1, kernel_shape=[3, 3], pads=[1, 1, 1, 1], strides=[1, 1]](%input, %33, %34) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\modules\conv.py:443:0 %21 : Float(1, 64, 28, 28, strides=[50176, 784, 28, 1], requires_grad=1, device=cpu) = onnx::Relu(%input.4) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\functional.py:1442:0 %input.8 : Float(1, 64, 14, 14, strides=[12544, 196, 14, 1], requires_grad=1, device=cpu) = onnx::MaxPool[kernel_shape=[2, 2], pads=[0, 0, 0, 0], strides=[2, 2]](%21) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\functional.py:797:0 %input.16 : Float(1, 128, 14, 14, strides=[25088, 196, 14, 1], requires_grad=1, device=cpu) = onnx::Conv[dilations=[1, 1], group=1, kernel_shape=[3, 3], pads=[1, 1, 1, 1], strides=[1, 1]](%input.8, %36, %37) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\modules\conv.py:443:0 %25 : Float(1, 128, 14, 14, strides=[25088, 196, 14, 1], requires_grad=1, device=cpu) = onnx::Relu(%input.16) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\functional.py:1442:0 %26 : Float(1, 128, 7, 7, strides=[6272, 49, 7, 1], requires_grad=1, device=cpu) = onnx::MaxPool[kernel_shape=[2, 2], pads=[0, 0, 0, 0], strides=[2, 2]](%25) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\functional.py:797:0 %27 : Long(2, strides=[1], device=cpu) = onnx::Constant[value= -1 6272 [ CPULongType{2} ]]() # E:/paddle_project/Pytorch_Imag_Classify/zifu_fenlei/CNN/pt模型转onnx模型.py:51:0 %28 : Float(1, 6272, strides=[6272, 1], requires_grad=1, device=cpu) = onnx::Reshape(%26, %27) # E:/paddle_project/Pytorch_Imag_Classify/zifu_fenlei/CNN/pt模型转onnx模型.py:51:0 %input.20 : Float(1, 1024, strides=[1024, 1], requires_grad=1, device=cpu) = onnx::Gemm[alpha=1., beta=1., transB=1](%28, %dense.0.weight, %dense.0.bias) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\modules\linear.py:103:0 %input.24 : Float(1, 1024, strides=[1024, 1], requires_grad=1, device=cpu) = onnx::Relu(%input.20) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\functional.py:1442:0 %output : Float(1, 10, strides=[10, 1], requires_grad=1, device=cpu) = onnx::Gemm[alpha=1., beta=1., transB=1](%input.24, %dense.3.weight, %dense.3.bias) # D:\ProgramData\Anaconda3\envs\openmmlab\lib\site-packages\torch\nn\modules\linear.py:103:0 return (%output)

输出结果的device  是CPU,模型加载的时候是GPU。这就是转换的意义吧

2.运行onnx模型

import onnximport onnxruntime as ortmodel = onnx.load('best.onnx')onnx.checker.check_model(model)session = ort.InferenceSession('best.onnx')x=np.random.randn(1,3,32,32).astype(np.float32) # 注意输入type一定要np.float32!!!!!# x= torch.randn(batch_size,chancel,h,w)outputs = session.run(None,input = { 'input' : x })

参考:

Pytorch模型转onnx模型实例_python_脚本之家 (jb51.net)

pytorch模型转onnx模型的方法详解_python_脚本之家 (jb51.net)

本文链接地址:https://www.jiuchutong.com/zhishi/280479.html 转载请保留说明!

上一篇:command.exe是病毒进程吗 command进程安全吗(cmt.exe病毒)

下一篇:Win10 Build 19044.1379/19043.1379更新补丁KB5007253预览版推送

  • 怎样让微博与客户建立交集(如何在微博上与用户互动)

    怎样让微博与客户建立交集(如何在微博上与用户互动)

  • 苹果13mini怎么退出id(苹果13如何退出app)

    苹果13mini怎么退出id(苹果13如何退出app)

  • qq怎样退群(qq怎样退群不让群主知道)

    qq怎样退群(qq怎样退群不让群主知道)

  • 企业支付宝提现到个人(企业支付宝提现要手续费吗)

    企业支付宝提现到个人(企业支付宝提现要手续费吗)

  • 抖音1万音浪可以提现多少人民币(抖音1万音浪可以兑换多少人民币)

    抖音1万音浪可以提现多少人民币(抖音1万音浪可以兑换多少人民币)

  • 喜马拉雅残疾人认证是干嘛的(喜马拉雅残疾人vip免费)

    喜马拉雅残疾人认证是干嘛的(喜马拉雅残疾人vip免费)

  • 安卓系统是哪里开发的(安卓系统属于谁的)

    安卓系统是哪里开发的(安卓系统属于谁的)

  • 钉钉为什么不能退群(钉钉为什么不能发起视频会议)

    钉钉为什么不能退群(钉钉为什么不能发起视频会议)

  • 钉钉上点赞老师能看到是谁点的吗(钉钉上点赞老师会知道吗)

    钉钉上点赞老师能看到是谁点的吗(钉钉上点赞老师会知道吗)

  • 京东怎么拒收货品(京东拒收货物怎么退款申请)

    京东怎么拒收货品(京东拒收货物怎么退款申请)

  • 微信打招呼频率过高(微信打招呼频率过高是什么意思)

    微信打招呼频率过高(微信打招呼频率过高是什么意思)

  • 阿里巴巴在哪里注册的公司(阿里巴巴在哪里注册成立的)

    阿里巴巴在哪里注册的公司(阿里巴巴在哪里注册成立的)

  • 有tp膜还用贴钢化膜吗(tp膜和钢化膜的区别)

    有tp膜还用贴钢化膜吗(tp膜和钢化膜的区别)

  • 手机qq怎么拉黑陌生人(手机QQ怎么拉黑能把聊天记录删除吗)

    手机qq怎么拉黑陌生人(手机QQ怎么拉黑能把聊天记录删除吗)

  • 手机qq录音权限在哪(qq的录音权限)

    手机qq录音权限在哪(qq的录音权限)

  • qq群群名片怎么改颜色(qq群设置群名片)

    qq群群名片怎么改颜色(qq群设置群名片)

  • 苹果6支持nfc功能吗(苹果6是否支持nfc)

    苹果6支持nfc功能吗(苹果6是否支持nfc)

  • cdr渐变工具在哪(cdr2019渐变工具怎样用)

    cdr渐变工具在哪(cdr2019渐变工具怎样用)

  • 小米8支持多少w快充(小米8支持多少w闪充)

    小米8支持多少w快充(小米8支持多少w闪充)

  • 微信运动没网络记步吗(微信运动没网络怎么办)

    微信运动没网络记步吗(微信运动没网络怎么办)

  • 什么是typec接头(typec接口又叫什么)

    什么是typec接头(typec接口又叫什么)

  • 二叉链表存储结构是什么(二叉链表存储结构的数据类型定义)

    二叉链表存储结构是什么(二叉链表存储结构的数据类型定义)

  • 蚂蚁森林节气签怎么领(蚂蚁森林节气签领不到)

    蚂蚁森林节气签怎么领(蚂蚁森林节气签领不到)

  • 如何发位置图给对方(怎样发送位置图给微信好友?)

    如何发位置图给对方(怎样发送位置图给微信好友?)

  • 在win7中,IE打开链接总是新窗口打开怎么办?(初中英语的学科知识与能力主要考什么)

    在win7中,IE打开链接总是新窗口打开怎么办?(初中英语的学科知识与能力主要考什么)

  • DVWA靶场搭建(dvwa靶场搭建sql注入)

    DVWA靶场搭建(dvwa靶场搭建sql注入)

  • 农产品增值税加计扣除可以补申报吗
  • 每个季度申报怎么申报?
  • 已出库未开票要交税吗
  • 管家婆软件记账流程
  • 工会基金是扣个人还是扣企业的
  • 公司奖金没有按时发可以要吗
  • 注册公司服务费是多少
  • 收到的房租增值税专用发票可以抵扣吗
  • 企业计提固定资产折旧
  • 所得税相关分录
  • 长期雇佣临时工
  • 增值税开票税额交税差额怎么入账
  • 简易计税 增值税专用发票
  • 业务招待费税前扣除规定
  • 小规模纳税人减免增值税会计处理
  • 开专票一定要公章吗
  • 公司员工出差补贴与差旅费报销制度
  • 折扣折让的账务处理
  • 进口料件和出口成品的关系
  • 非股东打入投资款无法返还
  • 计提福利费用会计分录
  • 普票红冲对方已入账发票拿不回来
  • 资产处置损益计入利润吗
  • 注销未分配利润怎么处理账务
  • 开发票时的数据可以四舍五入吗
  • 电脑中毒了怎么弄
  • 基于php代码实现数据库
  • 收到人才引进补助会计分录
  • 盒装cpu和散装
  • Win11 Build 22449.1000 预览版发布(附更新修复已知问题汇总)
  • 出口押汇算贷款吗
  • linux 文件修改
  • uniapp接入支付宝
  • php公众号
  • 贷款滞纳金如何收取
  • 深入解析Laravel5.5中的包自动发现Package Auto Discovery
  • 小规模减免的附件有哪些
  • 融资租赁业务增资扩股
  • 营改增抵减的销项税发票要抵扣吗
  • web前端开发html代码
  • zip 压缩命令
  • php知识点汇总与解答
  • 律师费怎么要回来
  • 融资租赁后续会计处理
  • 厂房出租一年多少钱
  • 收到法院款项如何做账
  • 筹建期发生的费用会计分录
  • 建筑公司劳务分包开票内容怎么写
  • 进项税抵扣的分录怎么做
  • 行政单位要不要税号?
  • 什么叫总分类账簿
  • 支付资金占用费的承诺函怎么写
  • 收到外国人的礼物怎么感谢
  • 离线发票累计金额为0
  • 免税苗木普通发票抵扣怎么在申报填写
  • 企业支付的产品和物资的原始价格是采购成本中的
  • 存货科目包括哪几类
  • 详解标准mysql(x64) Windows版安装过程
  • 主板如何清除cmos
  • 怎么检测u盘是否扩容
  • ubuntu linux
  • win7双声道
  • linux中命令行
  • linux删除定时任务
  • cortana win10
  • windows8.1怎么设置密码
  • win10输入法设置快捷键
  • 菜鸟教程安卓下载
  • android新手入门
  • unity3d Hair real time rendering 真实头发实时渲染
  • 查看shell脚本
  • Python Sql数据库增删改查操作简单封装
  • jquery技巧
  • 河北省税务局发票查询系统
  • 定额发票属于什么类型
  • 率土之滨怎么提高建设值上限
  • 卷票是什么票
  • 河南出名歌手
  • 税收优惠政策有什么公司受影响
  • 福建福州有几个火车站
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设