位置: IT常识 - 正文

pytorch 自编码器实现图像的降噪(pytorch自动编码器)

编辑:rootadmin
pytorch 自编码器实现图像的降噪 自编码器

推荐整理分享pytorch 自编码器实现图像的降噪(pytorch自动编码器),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:python编码工具,python自编码器,python自编码器,pytorch代码,pytorch自动编码器,pytorch 源码编译,pytorch onehot编码,pytorch 自编码器 异常检测,内容如对您有帮助,希望把文章链接给更多的朋友!

自动编码器是一种无监督的深度学习算法,它学习输入数据的编码表示,然后重新构造与输出相同的输入。它由编码器和解码器两个网络组成。编码器将高维输入压缩成低维潜在(也称为潜在代码或编码空间) ,以从中提取最相关的信息,而解码器则解压缩编码数据并重新创建原始输入。

自编码器的输入和输出应该尽可能的相似。

通过输入含有噪声的图像,编码器在编码的过程中会存在信息丢失,将输入和输出最相似的特征保留下来,通过解码器得到最后的输出。在这个转换的过程中实现了图像的去噪。

自编码器主要的用途其实是用于降维,将高维的数据编码为一组向量,解码器通过解码得到输出。

数据集导入可视化import torchvisionimport matplotlib.pyplot as pltfrom torch.utils.data import DataLoaderimport numpy as npimport randomimport PIL.Image as Imageimport torchvision.transforms as transformsclass AddPepperNoise(object): """增加椒盐噪声 Args: snr (float): Signal Noise Rate p (float): 概率值,依概率执行该操作 """ def __init__(self, snr, p=0.9): assert isinstance(snr, float) and (isinstance(p, float)) self.snr = snr self.p = p def __call__(self, img): """ Args: img (PIL Image): PIL Image Returns: PIL Image: PIL image. """ if random.uniform(0, 1) < self.p: img_ = np.array(img).copy() h, w = img_.shape signal_pct = self.snr noise_pct = (1 - self.snr) mask = np.random.choice((0, 1, 2), size=(h, w), p=[signal_pct, noise_pct/2., noise_pct/2.]) img_[mask == 1] = 255 # 盐噪声 img_[mask == 2] = 0 # 椒噪声 return Image.fromarray(img_.astype('uint8')) else: return imgclass Gaussian_noise(object): """增加高斯噪声 此函数用将产生的高斯噪声加到图片上 传入: img : 原图 mean : 均值 sigma : 标准差 返回: gaussian_out : 噪声处理后的图片 """ def __init__(self, mean, sigma): self.mean = mean self.sigma = sigma def __call__(self, img): """ Args: img (PIL Image): PIL Image Returns: PIL Image: PIL image. """ # 将图片灰度标准化 img_ = np.array(img).copy() img_ = img_ / 255.0 # 产生高斯 noise noise = np.random.normal(self.mean, self.sigma, img_.shape) # 将噪声和图片叠加 gaussian_out = img_ + noise # 将超过 1 的置 1,低于 0 的置 0 gaussian_out = np.clip(gaussian_out, 0, 1) # 将图片灰度范围的恢复为 0-255 gaussian_out = np.uint8(gaussian_out*255) # 将噪声范围搞为 0-255 # noise = np.uint8(noise*255) return Image.fromarray(gaussian_out)train_datasets = torchvision.datasets.MNIST('./', train=True, download=True)test_datasets = torchvision.datasets.MNIST('./', train=False, download=True)print('训练集的数量', len(train_datasets))print('测试集的数量', len(test_datasets))train_loader = DataLoader(train_datasets, batch_size=100, shuffle=True)test_loader = DataLoader(test_datasets, batch_size=1, shuffle=False)transform=transforms.Compose([ transforms.ToPILImage(), Gaussian_noise(0,0.1), AddPepperNoise(0.9) # transforms.ToTensor()])print('训练集可视化')fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) img = train_datasets.train_data[i] label = train_datasets.train_labels[i] # noise = np.random.normal(0.1, 0.1, img.shape) # img=transform(img) plt.imshow(img, cmap='gray') plt.title(label) plt.xticks([]) plt.yticks([])plt.show()

噪声图像 

 原始图像

模型的搭建import torchfrom torch import nnclass AE(nn.Module): def __init__(self): super(AE, self).__init__() # [b, 784] => [b, 20] self.encoder = nn.Sequential( nn.Linear(784, 256), nn.ReLU(), nn.Linear(256, 64), nn.ReLU(), nn.Linear(64, 20), nn.ReLU() ) # [b, 20] => [b, 784] self.decoder = nn.Sequential( nn.Linear(20, 64), nn.ReLU(), nn.Linear(64, 256), nn.ReLU(), nn.Linear(256, 784), nn.Sigmoid() ) def forward(self, x): """ :param x: [b, 1, 28, 28] :return: """ batchsz = x.size(0) # flatten(打平) x = x.view(batchsz, 784) # encoder x = self.encoder(x) # decoder x = self.decoder(x) # reshape x = x.view(batchsz, 1, 28, 28) return xif __name__=='__main__': model=AE() input=torch.randn(1,28,28) input=input.view(1,-1) print('输入的维度',input.shape) encoder_out=model.encoder(input) print('编码器的输出',encoder_out.shape) out=model.decoder(encoder_out) print('解码器的输出',out.shape)

 

模型的训练

导入训练集训练的时候一定要将使用transforms将所有图像转换为tensor格式,这里的方法不同于tensorflow导入MNIST方法,如果不加transforms则图像的格式为列表类型,下面在训练的时候会报错。

pytorch 自编码器实现图像的降噪(pytorch自动编码器)

在训练过程中添加噪声。分别添加了高斯噪声和椒盐噪声

import torchvisionfrom torch.utils.data import DataLoaderimport numpy as npimport random,osimport PIL.Image as Imageimport torchvision.transforms as transformsfrom torch import nn,optimimport torchfrom models import AEfrom tqdm import tqdmtrain_datasets = torchvision.datasets.MNIST('./', train=True, download=True,transform=transforms.ToTensor())test_datasets = torchvision.datasets.MNIST('./', train=False, download=True,transform=transforms.ToTensor())print('训练集的数量', len(train_datasets))print('测试集的数量', len(test_datasets))train_loader = DataLoader(train_datasets, batch_size=100, shuffle=True)test_loader = DataLoader(test_datasets, batch_size=1, shuffle=False)#模型,优化器,损失函数device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")model=AE().to(device)criteon = nn.MSELoss()optimizer = optim.Adam(model.parameters(), lr=1e-3)##导入预训练模型if os.path.exists('./model.pth') : # 如果存在已保存的权重,则加载 checkpoint = torch.load('model.pth',map_location=lambda storage,loc:storage) model.load_state_dict(checkpoint['model_state_dict']) optimizer.load_state_dict(checkpoint['optimizer_state_dict']) initepoch = checkpoint['epoch'] loss = checkpoint['loss']else: initepoch=0#开始训练for epoch in range(initepoch, 50): with tqdm(total=(len(train_datasets)-len(train_datasets)), ncols=80) as t: t.set_description('epoch: {}/{}'.format(epoch, 50)) running_loss = 0.0 for i, data in enumerate(train_loader, 0): # get the inputs true_input, _ = data #生成均值为0,方差为0.1的高斯分布 gaussian_noise=torch.normal(mean=0,std=0.1,size=true_input.shape) image_noise=true_input+gaussian_noise noise_tensor = torch.rand(size=true_input.shape) #添加椒盐噪声 image_noise[noise_tensor<0.1]=0 #椒噪声 image_noise[noise_tensor > (1-0.1)] = 1 #盐噪声 #限制像素的范围在0-1之间 image_noise=torch.clamp(image_noise,min=0,max=1) optimizer.zero_grad() outputs = model(image_noise) loss = criteon(outputs, true_input) loss.backward() optimizer.step() running_loss += loss.item() t.set_postfix(trainloss='{:.6f}'.format(running_loss/len(train_loader))) t.update(len(true_input)) torch.save({'epoch': epoch, 'model_state_dict': model.state_dict(), 'optimizer_state_dict': optimizer.state_dict(), 'loss': running_loss/len(train_loader) }, 'model.pth')模型的测试

 在导入模型的时候经常发生上面的错误。模型在导入参数的时候不需要赋值操作。如果保存的方法是torch.load(model,'model.pth'),也就是直接保存模型的所有(包括模型的结构),在导入模型参数的时候可以使用model=torch.load('./model.pth')

import numpy as npimport torchvisionimport matplotlib.pyplot as pltfrom torch.utils.data import DataLoaderimport torchimport torchvision.transforms as transformsfrom models import AEfrom data import AddPepperNoise,Gaussian_noisetest_datasets = torchvision.datasets.MNIST('./', train=False, download=True)print('测试集的数量', len(test_datasets))test_loader = DataLoader(test_datasets, batch_size=1, shuffle=False)transform=transforms.Compose([ transforms.ToPILImage(), Gaussian_noise(0,0.2), AddPepperNoise(0.9), transforms.ToTensor()])model=AE()hh=torch.load('./model.pth',map_location=lambda storage,loc:storage)model.load_state_dict(hh['model_state_dict'])#错误写法# model=model.load_state_dict(hh['model_state_dict'])fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) img = test_datasets.train_data[i] label = test_datasets.test_labels[i] img_noise=transform(img) out=model(img_noise) out=out.squeeze() out=transforms.ToPILImage()(out) #原始图像,噪声图像,去噪图像 plt.imshow(np.hstack((np.array(img),np.array(transforms.ToPILImage()(img_noise)),np.array(out))), cmap='gray') plt.title(label) plt.xticks([]) plt.yticks([])plt.show()

 生成随机数看看解码器能解码出什么

生成标准正太分布import matplotlib.pyplot as pltimport torchimport torchvision.transforms as transformsfrom models import AEmodel=AE()model.load_state_dict(torch.load('./model.pth',map_location=lambda storage,loc:storage)['model_state_dict'])fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) input=torch.randn(1,20) out=model.decoder(input) out=out.view(28,28) out=transforms.ToPILImage()(out) plt.imshow(out, cmap='gray') plt.xticks([]) plt.yticks([])plt.show()

 生成0-1之间的均匀分布import matplotlib.pyplot as pltimport torchimport torchvision.transforms as transformsfrom models import AEmodel=AE()model.load_state_dict(torch.load('./model.pth',map_location=lambda storage,loc:storage)['model_state_dict'])fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) input=torch.rand(1,20) out=model.decoder(input) out=out.view(28,28) out=transforms.ToPILImage()(out) plt.imshow(out, cmap='gray') plt.xticks([]) plt.yticks([])plt.show()

可以看到随机生成的数据用解码器解码得到的数据都很乱。接下来,看看编码器编码后的数据服从什么分布。

看看编码器编码的输出服从什么分布import numpy as npimport torchvisionimport matplotlib.pyplot as pltfrom torch.utils.data import DataLoaderimport torchimport torchvision.transforms as transformsfrom models import AEfrom data import AddPepperNoise,Gaussian_noisetest_datasets = torchvision.datasets.MNIST('./', train=False, download=True)print('测试集的数量', len(test_datasets))test_loader = DataLoader(test_datasets, batch_size=1, shuffle=False)transform=transforms.Compose([ transforms.ToPILImage(), Gaussian_noise(0,0.2), AddPepperNoise(0.9), transforms.ToTensor()])model=AE()hh=torch.load('./model.pth',map_location=lambda storage,loc:storage)model.load_state_dict(hh['model_state_dict'])#错误写法# model=model.load_state_dict(hh['model_state_dict'])fig = plt.figure()for i in range(1): plt.subplot(1, 1, i + 1) img = test_datasets.test_data[i] label = test_datasets.test_labels[i] img_noise=transform(img) img_noise=img_noise.view(1,-1) out=model.encoder(img_noise) print('encoder的输出',out) #正太分布检验 import scipy.stats as stats print(stats.shapiro(out.detach().numpy())) plt.imshow(img, cmap='gray') plt.title(label) plt.xticks([]) plt.yticks([])plt.show()print('均值',torch.mean(out))print('方差',torch.var(out))

 可以看到一张图片7是服从均值为2.5,方差为8.55的正太分布的。

然后生成一些类似的分布看看效果。

import matplotlib.pyplot as pltimport torchimport torchvision.transforms as transformsfrom models import AEmodel=AE()model.load_state_dict(torch.load('./model.pth',map_location=lambda storage,loc:storage)['model_state_dict'])fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) input=torch.normal(mean=2.5928,std=8.5510,size=(1,20)) out=model.decoder(input) out=out.view(28,28) out=transforms.ToPILImage()(out) plt.imshow(out, cmap='gray') plt.xticks([]) plt.yticks([])plt.show()

 其实效果挺差的,可能是因为一张图片的分布并不能代表所有吧。

本文链接地址:https://www.jiuchutong.com/zhishi/298290.html 转载请保留说明!

上一篇:【数据集NO.1】最经典大规模、多样化的自动驾驶视频数据集——BDD100K数据集(数据集介绍)

下一篇:MySQL基本查询(mysqljoin查询)

  • 喜马拉雅跳过片头片尾怎么设置(喜马拉雅跳过片尾)

    喜马拉雅跳过片头片尾怎么设置(喜马拉雅跳过片尾)

  • 快手小店的订单都看不了怎么回事(快手小店的订单怎么突然没有了)

    快手小店的订单都看不了怎么回事(快手小店的订单怎么突然没有了)

  • 电脑怎么解压软件(电脑怎么解压软件并安装)

    电脑怎么解压软件(电脑怎么解压软件并安装)

  • 硬盘装不了系统怎么办(硬盘装不了系统什么问题)

    硬盘装不了系统怎么办(硬盘装不了系统什么问题)

  • 小米miui12有什么优势(miui12真的那么好用吗)

    小米miui12有什么优势(miui12真的那么好用吗)

  • 手机网易云放歌没声音(手机网易云放歌怎么让游戏里的人听到)

    手机网易云放歌没声音(手机网易云放歌怎么让游戏里的人听到)

  • 怎样知道小红书限流了(怎样知道小红书笔记审核通过)

    怎样知道小红书限流了(怎样知道小红书笔记审核通过)

  • 如何qq好友恢复三年内(如何qq好友恢复聊天记录)

    如何qq好友恢复三年内(如何qq好友恢复聊天记录)

  • iphone7p经常闪退(iphone7p经常闪退怎么回事)

    iphone7p经常闪退(iphone7p经常闪退怎么回事)

  • 信号上面有个hd(信号上面有个h是什么意思)

    信号上面有个hd(信号上面有个h是什么意思)

  • 如何批量设置朋友圈权限(如何批量设置朋友标签)

    如何批量设置朋友圈权限(如何批量设置朋友标签)

  • 网易云音乐等级听歌量怎么计算(网易云音乐等级10级意味着什么)

    网易云音乐等级听歌量怎么计算(网易云音乐等级10级意味着什么)

  • 如何将爱奇艺的视频下载到u盘(如何将爱奇艺的视频保存到电脑)

    如何将爱奇艺的视频下载到u盘(如何将爱奇艺的视频保存到电脑)

  • 华为p30有相机防抖吗(p30手机拍照有防抖功能吗)

    华为p30有相机防抖吗(p30手机拍照有防抖功能吗)

  • 手机出个hd什么意思(手机上出现hd是什)

    手机出个hd什么意思(手机上出现hd是什)

  • 手机怎么给手机充话费(手机怎么给手机传软件)

    手机怎么给手机充话费(手机怎么给手机传软件)

  • x27摄像头怎么设置(x27摄像头图解)

    x27摄像头怎么设置(x27摄像头图解)

  • 华为4手环上市时间(华为手环上市时间)

    华为4手环上市时间(华为手环上市时间)

  • 八戒网个人怎么接任务(八戒网怎么兼职)

    八戒网个人怎么接任务(八戒网怎么兼职)

  • ddr4 2400和2660区别(ddr4 2666与2400能混用危害)

    ddr4 2400和2660区别(ddr4 2666与2400能混用危害)

  • iqoo中文怎么读(iqooz1中文怎么读)

    iqoo中文怎么读(iqooz1中文怎么读)

  • 【VUE3】ElementUI--el-date-picker下拉控件样式修改(高亮显示设置)(vue3 element-plus)

    【VUE3】ElementUI--el-date-picker下拉控件样式修改(高亮显示设置)(vue3 element-plus)

  • Web渗透测试---Web TOP 10 漏洞(Web渗透测试新手实操详解)

    Web渗透测试---Web TOP 10 漏洞(Web渗透测试新手实操详解)

  • 一个简单的websocket hook(一个简单的web项目名称)

    一个简单的websocket hook(一个简单的web项目名称)

  • php接口中interface的使用方法(php接口怎么调用)

    php接口中interface的使用方法(php接口怎么调用)

  • 什么是简易征税项目
  • 企业之间拆借资金是什么意思
  • 我国增值税征收范围
  • 受托加工开票如何选名称
  • 车险 保险金额
  • 企业注销库存怎么做账
  • 个税身份证验证不通过已经申报缴税
  • 工程保险谁负责
  • 多缴税款抵税有期限吗
  • 个税缴款三方协议
  • 个人所得税app是什么意思
  • 行政单位会议纪要范文3篇
  • 应付职工薪酬包括哪些内容
  • 销售土地如何交增值税
  • 营改增后装修材料如何抵扣?
  • 会计学中管理费用属于什么
  • 进货有商业折扣商品怎么入库
  • 弃置费用预计负债减少超过固定资产账面价值
  • 零余额账户银行余额调节表
  • 开发票零税率和免税是一样的意思吗
  • 增值税专用发票有效期是多长时间
  • 国税发200931号文解读
  • 房产增值税是怎么交的呢
  • 税控系统服务质量调查报告
  • 合同开票金额一定等于合同额吗
  • 印花税的计税依据怎么算含税还是不含税
  • 当月发的奖金怎么扣个税
  • 交到公户上的钱,还没到账可以退回吗?
  • 企业所得税年报和增值税收入不一致
  • 企业年会的费用会计分录
  • 跨年的物业费如何记账
  • 联想lenovo ideapad 320-15AST
  • 其他应付款是什么意思
  • 收到厂家商品的会计分录
  • linux系统已经得到了广泛的应用
  • 股票发行费用怎么处理
  • 企业购进房产怎么抵扣
  • 什么是应交税费未交增值税
  • 曲折的拼音
  • 材料成本差异属于流动资产吗
  • vue 滚动条
  • php ip地址
  • 猿创设计科技有限公司
  • mtd命令
  • 个体工商户可以开对公账户吗
  • 往来款会计
  • 党费结算标准
  • 费用报销单票据怎么填
  • 主营业务收入登记明细账簿范本
  • python 协程 yield
  • 安装路灯会计分录
  • 取得土地使用权所支付的金额包括契税吗
  • 以前年度的损益调整为负值说明什么
  • 购买东西进项税额怎么算
  • 冲个人借款分录怎么写
  • 上月做了未开票收入,这月开了票怎么报税
  • 本月无收入还用结转吗
  • 财务软件服务费合同印花税
  • 无形资产摊销费怎么算
  • 工业企业检查表
  • MYSQL数据库原理及应用
  • 怎么操作win10系统
  • 科普知识大全
  • centos配置httpd
  • linux内核的作用
  • Win10打不开IE浏览器
  • Bullet(Cocos2dx)之优化PhysicsDraw3D
  • linux压缩tar文件命令
  • linux shell脚本攻略(第3版)
  • 安卓自动登录应用程序
  • jQuery插件封装时如要实现链式编程,需要
  • 快速排序的算法流程图
  • python讲解
  • 电子税务局无法导出申报表
  • 国家税务局的单位性质是什么
  • 福建地税网上办事大厅
  • 什么是从价计征,从量计征
  • 核定征收一般纳税人
  • 广东电子税务局官网登录入口手机版
  • 智能财税是什么行业
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设