位置: IT常识 - 正文

pytorch 自编码器实现图像的降噪(pytorch自动编码器)

编辑:rootadmin
pytorch 自编码器实现图像的降噪 自编码器

推荐整理分享pytorch 自编码器实现图像的降噪(pytorch自动编码器),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:python编码工具,python自编码器,python自编码器,pytorch代码,pytorch自动编码器,pytorch 源码编译,pytorch onehot编码,pytorch 自编码器 异常检测,内容如对您有帮助,希望把文章链接给更多的朋友!

自动编码器是一种无监督的深度学习算法,它学习输入数据的编码表示,然后重新构造与输出相同的输入。它由编码器和解码器两个网络组成。编码器将高维输入压缩成低维潜在(也称为潜在代码或编码空间) ,以从中提取最相关的信息,而解码器则解压缩编码数据并重新创建原始输入。

自编码器的输入和输出应该尽可能的相似。

通过输入含有噪声的图像,编码器在编码的过程中会存在信息丢失,将输入和输出最相似的特征保留下来,通过解码器得到最后的输出。在这个转换的过程中实现了图像的去噪。

自编码器主要的用途其实是用于降维,将高维的数据编码为一组向量,解码器通过解码得到输出。

数据集导入可视化import torchvisionimport matplotlib.pyplot as pltfrom torch.utils.data import DataLoaderimport numpy as npimport randomimport PIL.Image as Imageimport torchvision.transforms as transformsclass AddPepperNoise(object): """增加椒盐噪声 Args: snr (float): Signal Noise Rate p (float): 概率值,依概率执行该操作 """ def __init__(self, snr, p=0.9): assert isinstance(snr, float) and (isinstance(p, float)) self.snr = snr self.p = p def __call__(self, img): """ Args: img (PIL Image): PIL Image Returns: PIL Image: PIL image. """ if random.uniform(0, 1) < self.p: img_ = np.array(img).copy() h, w = img_.shape signal_pct = self.snr noise_pct = (1 - self.snr) mask = np.random.choice((0, 1, 2), size=(h, w), p=[signal_pct, noise_pct/2., noise_pct/2.]) img_[mask == 1] = 255 # 盐噪声 img_[mask == 2] = 0 # 椒噪声 return Image.fromarray(img_.astype('uint8')) else: return imgclass Gaussian_noise(object): """增加高斯噪声 此函数用将产生的高斯噪声加到图片上 传入: img : 原图 mean : 均值 sigma : 标准差 返回: gaussian_out : 噪声处理后的图片 """ def __init__(self, mean, sigma): self.mean = mean self.sigma = sigma def __call__(self, img): """ Args: img (PIL Image): PIL Image Returns: PIL Image: PIL image. """ # 将图片灰度标准化 img_ = np.array(img).copy() img_ = img_ / 255.0 # 产生高斯 noise noise = np.random.normal(self.mean, self.sigma, img_.shape) # 将噪声和图片叠加 gaussian_out = img_ + noise # 将超过 1 的置 1,低于 0 的置 0 gaussian_out = np.clip(gaussian_out, 0, 1) # 将图片灰度范围的恢复为 0-255 gaussian_out = np.uint8(gaussian_out*255) # 将噪声范围搞为 0-255 # noise = np.uint8(noise*255) return Image.fromarray(gaussian_out)train_datasets = torchvision.datasets.MNIST('./', train=True, download=True)test_datasets = torchvision.datasets.MNIST('./', train=False, download=True)print('训练集的数量', len(train_datasets))print('测试集的数量', len(test_datasets))train_loader = DataLoader(train_datasets, batch_size=100, shuffle=True)test_loader = DataLoader(test_datasets, batch_size=1, shuffle=False)transform=transforms.Compose([ transforms.ToPILImage(), Gaussian_noise(0,0.1), AddPepperNoise(0.9) # transforms.ToTensor()])print('训练集可视化')fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) img = train_datasets.train_data[i] label = train_datasets.train_labels[i] # noise = np.random.normal(0.1, 0.1, img.shape) # img=transform(img) plt.imshow(img, cmap='gray') plt.title(label) plt.xticks([]) plt.yticks([])plt.show()

噪声图像 

 原始图像

模型的搭建import torchfrom torch import nnclass AE(nn.Module): def __init__(self): super(AE, self).__init__() # [b, 784] => [b, 20] self.encoder = nn.Sequential( nn.Linear(784, 256), nn.ReLU(), nn.Linear(256, 64), nn.ReLU(), nn.Linear(64, 20), nn.ReLU() ) # [b, 20] => [b, 784] self.decoder = nn.Sequential( nn.Linear(20, 64), nn.ReLU(), nn.Linear(64, 256), nn.ReLU(), nn.Linear(256, 784), nn.Sigmoid() ) def forward(self, x): """ :param x: [b, 1, 28, 28] :return: """ batchsz = x.size(0) # flatten(打平) x = x.view(batchsz, 784) # encoder x = self.encoder(x) # decoder x = self.decoder(x) # reshape x = x.view(batchsz, 1, 28, 28) return xif __name__=='__main__': model=AE() input=torch.randn(1,28,28) input=input.view(1,-1) print('输入的维度',input.shape) encoder_out=model.encoder(input) print('编码器的输出',encoder_out.shape) out=model.decoder(encoder_out) print('解码器的输出',out.shape)

 

模型的训练

导入训练集训练的时候一定要将使用transforms将所有图像转换为tensor格式,这里的方法不同于tensorflow导入MNIST方法,如果不加transforms则图像的格式为列表类型,下面在训练的时候会报错。

pytorch 自编码器实现图像的降噪(pytorch自动编码器)

在训练过程中添加噪声。分别添加了高斯噪声和椒盐噪声

import torchvisionfrom torch.utils.data import DataLoaderimport numpy as npimport random,osimport PIL.Image as Imageimport torchvision.transforms as transformsfrom torch import nn,optimimport torchfrom models import AEfrom tqdm import tqdmtrain_datasets = torchvision.datasets.MNIST('./', train=True, download=True,transform=transforms.ToTensor())test_datasets = torchvision.datasets.MNIST('./', train=False, download=True,transform=transforms.ToTensor())print('训练集的数量', len(train_datasets))print('测试集的数量', len(test_datasets))train_loader = DataLoader(train_datasets, batch_size=100, shuffle=True)test_loader = DataLoader(test_datasets, batch_size=1, shuffle=False)#模型,优化器,损失函数device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")model=AE().to(device)criteon = nn.MSELoss()optimizer = optim.Adam(model.parameters(), lr=1e-3)##导入预训练模型if os.path.exists('./model.pth') : # 如果存在已保存的权重,则加载 checkpoint = torch.load('model.pth',map_location=lambda storage,loc:storage) model.load_state_dict(checkpoint['model_state_dict']) optimizer.load_state_dict(checkpoint['optimizer_state_dict']) initepoch = checkpoint['epoch'] loss = checkpoint['loss']else: initepoch=0#开始训练for epoch in range(initepoch, 50): with tqdm(total=(len(train_datasets)-len(train_datasets)), ncols=80) as t: t.set_description('epoch: {}/{}'.format(epoch, 50)) running_loss = 0.0 for i, data in enumerate(train_loader, 0): # get the inputs true_input, _ = data #生成均值为0,方差为0.1的高斯分布 gaussian_noise=torch.normal(mean=0,std=0.1,size=true_input.shape) image_noise=true_input+gaussian_noise noise_tensor = torch.rand(size=true_input.shape) #添加椒盐噪声 image_noise[noise_tensor<0.1]=0 #椒噪声 image_noise[noise_tensor > (1-0.1)] = 1 #盐噪声 #限制像素的范围在0-1之间 image_noise=torch.clamp(image_noise,min=0,max=1) optimizer.zero_grad() outputs = model(image_noise) loss = criteon(outputs, true_input) loss.backward() optimizer.step() running_loss += loss.item() t.set_postfix(trainloss='{:.6f}'.format(running_loss/len(train_loader))) t.update(len(true_input)) torch.save({'epoch': epoch, 'model_state_dict': model.state_dict(), 'optimizer_state_dict': optimizer.state_dict(), 'loss': running_loss/len(train_loader) }, 'model.pth')模型的测试

 在导入模型的时候经常发生上面的错误。模型在导入参数的时候不需要赋值操作。如果保存的方法是torch.load(model,'model.pth'),也就是直接保存模型的所有(包括模型的结构),在导入模型参数的时候可以使用model=torch.load('./model.pth')

import numpy as npimport torchvisionimport matplotlib.pyplot as pltfrom torch.utils.data import DataLoaderimport torchimport torchvision.transforms as transformsfrom models import AEfrom data import AddPepperNoise,Gaussian_noisetest_datasets = torchvision.datasets.MNIST('./', train=False, download=True)print('测试集的数量', len(test_datasets))test_loader = DataLoader(test_datasets, batch_size=1, shuffle=False)transform=transforms.Compose([ transforms.ToPILImage(), Gaussian_noise(0,0.2), AddPepperNoise(0.9), transforms.ToTensor()])model=AE()hh=torch.load('./model.pth',map_location=lambda storage,loc:storage)model.load_state_dict(hh['model_state_dict'])#错误写法# model=model.load_state_dict(hh['model_state_dict'])fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) img = test_datasets.train_data[i] label = test_datasets.test_labels[i] img_noise=transform(img) out=model(img_noise) out=out.squeeze() out=transforms.ToPILImage()(out) #原始图像,噪声图像,去噪图像 plt.imshow(np.hstack((np.array(img),np.array(transforms.ToPILImage()(img_noise)),np.array(out))), cmap='gray') plt.title(label) plt.xticks([]) plt.yticks([])plt.show()

 生成随机数看看解码器能解码出什么

生成标准正太分布import matplotlib.pyplot as pltimport torchimport torchvision.transforms as transformsfrom models import AEmodel=AE()model.load_state_dict(torch.load('./model.pth',map_location=lambda storage,loc:storage)['model_state_dict'])fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) input=torch.randn(1,20) out=model.decoder(input) out=out.view(28,28) out=transforms.ToPILImage()(out) plt.imshow(out, cmap='gray') plt.xticks([]) plt.yticks([])plt.show()

 生成0-1之间的均匀分布import matplotlib.pyplot as pltimport torchimport torchvision.transforms as transformsfrom models import AEmodel=AE()model.load_state_dict(torch.load('./model.pth',map_location=lambda storage,loc:storage)['model_state_dict'])fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) input=torch.rand(1,20) out=model.decoder(input) out=out.view(28,28) out=transforms.ToPILImage()(out) plt.imshow(out, cmap='gray') plt.xticks([]) plt.yticks([])plt.show()

可以看到随机生成的数据用解码器解码得到的数据都很乱。接下来,看看编码器编码后的数据服从什么分布。

看看编码器编码的输出服从什么分布import numpy as npimport torchvisionimport matplotlib.pyplot as pltfrom torch.utils.data import DataLoaderimport torchimport torchvision.transforms as transformsfrom models import AEfrom data import AddPepperNoise,Gaussian_noisetest_datasets = torchvision.datasets.MNIST('./', train=False, download=True)print('测试集的数量', len(test_datasets))test_loader = DataLoader(test_datasets, batch_size=1, shuffle=False)transform=transforms.Compose([ transforms.ToPILImage(), Gaussian_noise(0,0.2), AddPepperNoise(0.9), transforms.ToTensor()])model=AE()hh=torch.load('./model.pth',map_location=lambda storage,loc:storage)model.load_state_dict(hh['model_state_dict'])#错误写法# model=model.load_state_dict(hh['model_state_dict'])fig = plt.figure()for i in range(1): plt.subplot(1, 1, i + 1) img = test_datasets.test_data[i] label = test_datasets.test_labels[i] img_noise=transform(img) img_noise=img_noise.view(1,-1) out=model.encoder(img_noise) print('encoder的输出',out) #正太分布检验 import scipy.stats as stats print(stats.shapiro(out.detach().numpy())) plt.imshow(img, cmap='gray') plt.title(label) plt.xticks([]) plt.yticks([])plt.show()print('均值',torch.mean(out))print('方差',torch.var(out))

 可以看到一张图片7是服从均值为2.5,方差为8.55的正太分布的。

然后生成一些类似的分布看看效果。

import matplotlib.pyplot as pltimport torchimport torchvision.transforms as transformsfrom models import AEmodel=AE()model.load_state_dict(torch.load('./model.pth',map_location=lambda storage,loc:storage)['model_state_dict'])fig = plt.figure()for i in range(12): plt.subplot(3, 4, i + 1) input=torch.normal(mean=2.5928,std=8.5510,size=(1,20)) out=model.decoder(input) out=out.view(28,28) out=transforms.ToPILImage()(out) plt.imshow(out, cmap='gray') plt.xticks([]) plt.yticks([])plt.show()

 其实效果挺差的,可能是因为一张图片的分布并不能代表所有吧。

本文链接地址:https://www.jiuchutong.com/zhishi/298290.html 转载请保留说明!

上一篇:【数据集NO.1】最经典大规模、多样化的自动驾驶视频数据集——BDD100K数据集(数据集介绍)

下一篇:MySQL基本查询(mysqljoin查询)

  • 你的一切都与童年有关(你所有的一切歌词)

    你的一切都与童年有关(你所有的一切歌词)

  • 爱奇艺vip账号怎么登录(爱奇艺vip账号怎么查)

    爱奇艺vip账号怎么登录(爱奇艺vip账号怎么查)

  • 华为p40第一次充电充多久呢(华为p40第一次充电需要多长时间最好)

    华为p40第一次充电充多久呢(华为p40第一次充电需要多长时间最好)

  • vivo手机怎样关闭推送通知(vivo手机怎么关机)

    vivo手机怎样关闭推送通知(vivo手机怎么关机)

  • 为什么苹果相机自拍脸是歪的(为什么苹果相机里的自己脸是歪的)

    为什么苹果相机自拍脸是歪的(为什么苹果相机里的自己脸是歪的)

  • 手机qq群聊怎么关麦(手机qq群聊怎么开启屏幕共享)

    手机qq群聊怎么关麦(手机qq群聊怎么开启屏幕共享)

  • 微信能发多少字(微信怎样发朋友圈文字和图片)

    微信能发多少字(微信怎样发朋友圈文字和图片)

  • 小米笔记本电池鼓包解决方案(小米笔记本电池鼓包了还能用吗)

    小米笔记本电池鼓包解决方案(小米笔记本电池鼓包了还能用吗)

  • 秘乐短视频实名认证有没有风险(秘乐短视频实名认证失败)

    秘乐短视频实名认证有没有风险(秘乐短视频实名认证失败)

  • 抖音0播放解决方法(抖音0播放要删除吗)

    抖音0播放解决方法(抖音0播放要删除吗)

  • 离线和离线请留言哪个是在隐身(离线和离线请留言是什么意思)

    离线和离线请留言哪个是在隐身(离线和离线请留言是什么意思)

  • 微信群管理员为什么不能踢人(微信群管理员为什么不能撤回消息)

    微信群管理员为什么不能踢人(微信群管理员为什么不能撤回消息)

  • 魅族恢复出厂设置密码忘了怎么办(魅族恢复出厂设置按键)

    魅族恢复出厂设置密码忘了怎么办(魅族恢复出厂设置按键)

  • 触摸板鼠标不动了怎么办(触摸板好使鼠标不好使)

    触摸板鼠标不动了怎么办(触摸板好使鼠标不好使)

  • 华为lne-al00是什么型号的手机(华为lne-al00是什么型号)

    华为lne-al00是什么型号的手机(华为lne-al00是什么型号)

  • 苹果手机输错密码能锁多长时间(苹果手机输错密码停用怎么打开)

    苹果手机输错密码能锁多长时间(苹果手机输错密码停用怎么打开)

  • 手机怎么样免费下载歌曲(手机怎么样免费换照片衣服)

    手机怎么样免费下载歌曲(手机怎么样免费换照片衣服)

  • 抖音无故删视频会恢复吗(抖音视频无缘无故被删了)

    抖音无故删视频会恢复吗(抖音视频无缘无故被删了)

  • 怎么制作微信头像(怎么制作微信头像模板)

    怎么制作微信头像(怎么制作微信头像模板)

  • 快手如何置顶作品(快手如何置顶作品评论)

    快手如何置顶作品(快手如何置顶作品评论)

  • qq上q我吧什么意思(qq q我吧什么意思)

    qq上q我吧什么意思(qq q我吧什么意思)

  • 华为手机钱包在哪里(华为手机钱包在哪里打开)

    华为手机钱包在哪里(华为手机钱包在哪里打开)

  • python计数排序法是什么(python统计出现次数并排序)

    python计数排序法是什么(python统计出现次数并排序)

  • 购买金税盘维护费会计分录
  • 小规模一直零申报也要工商申报吗?
  • 什么情况需要预缴税款
  • 个人房贷利息抵税
  • 工资个税计提多了实际交的少
  • 开发票利润
  • 公司租车要交什么费用
  • 返利款进项税是否需要换算
  • 返聘已退休人员是否需要缴纳社保
  • 置换上市公司资质要求
  • 独资合伙企业的所有者用于承担企业财务风险的财产是
  • 传媒公司的成本构成有哪些
  • 外企企业所得税怎么计算
  • 进项税额抵扣欠税后怎么申报
  • 公司单位员工餐费怎么算
  • 小规模手撕发票申报填在哪
  • mac如何登陆两个微信
  • win10指纹传感器在哪里
  • 对公账户被诈骗转款728000会怎么样呢
  • 权益法分红的会计分录
  • 更改win10通知
  • linux监控系统命令
  • 原版win10系统安装方法
  • win11系统怎么投屏
  • 普通发票主营业务收入销项负数发票怎么做账
  • 小规模纳税人没有进项税
  • 金钱树的养殖方法 盆栽
  • 库存现金清查主要包括哪些内容
  • 员工离职补偿金账务处理
  • vue onblur
  • php多进程处理大数据
  • 没有发票怎么做研发费用
  • re.findall()用法
  • 记一次调试YOLOv5+DeepSort车辆跟踪项目的经过
  • mysql分表数量取决于什么
  • 物业管理可以开保洁发票吗
  • 公司的银行账号是不是和个人账号不一样
  • phpcms使用教程
  • 税控盘有什么用途和作用
  • 销售价格含税的会计分录
  • 其他应付款二级明细科目有哪些
  • 月初红字冲销暂估入账
  • 收伙食费入什么科目
  • 应付账款发生坏账怎么办
  • 原材料暂估入库分录
  • 企业长期股权投资增加说明什么
  • 免税商品外汇业务
  • 现金折扣怎么做账
  • 建筑劳务企业应发民工工资年终未发是否进行纳税调整
  • 收到红字发票如何申报增值税?
  • 政府投资资产会计核算科目
  • 开票系统的维护与保养
  • 药品进销差价的计算公式是什么
  • 发票金额小于实付金额会计分录
  • 年化利率是什么意思
  • sql server dbcc
  • 如何查看solaris版本
  • windows2000怎么安装
  • 服务器维护和计划的区别
  • netcfg -d
  • rsrcmtr.exe - rsrcmtr是什么进程 有什么用
  • 毕竟近义词语
  • mtr.exe
  • window8.1重装系统
  • linux 内核编译
  • 技术故事是什么意思
  • GLSL Tessellation Shader的编程入门介绍
  • css网站布局实录 pdf
  • pycharm如何使用
  • Node.js node-schedule定时任务隔多少分钟执行一次的方法
  • 游戏unity错误
  • js中check
  • Unity3D游戏开发pdf
  • pythonandroid开发
  • unity shader视频教程
  • python中的类怎样理解
  • javascript面向对象编程
  • jquery 插件编写
  • 安卓接口回调例子
  • 四川省国税局一处处长
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设