位置: IT常识 - 正文

对抗生成网络(GAN)中的损失函数(对抗生成网络算法)

编辑:rootadmin
对抗生成网络(GAN)中的损失函数

目录

GAN的训练过程:

L1和L2损失函数的区别

基础概念

相同点

差异


GAN的训练过程:

推荐整理分享对抗生成网络(GAN)中的损失函数(对抗生成网络算法),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:对抗生成网络,对抗生成网络赵晶,对抗生成网络赵晶,对抗生成网络GAN,对抗生成网络GAN,对抗生成网络,对抗生成网络,对抗生成网络赵晶,内容如对您有帮助,希望把文章链接给更多的朋友!

1、先定义一个标签:real = 1,fake = 0。当然这两个值的维度是按照数据的输出来看的。再定义了两个优化器。用于生成器和判别器。

2、随机生成一个噪声z。将z作为生成器的输入,输出gen_imgs(假样本)。

3、计算生成器的损失

定义:生成器的损失为g_loss。损失函数为adverisal_loss()。判别器为discriminator()。g_loss = adverisal_loss(discriminator(gen_imgs), real)g_loss.backward()optimizer_G.step()

可以看出来,g_loss是根据一个输出(将生成的样本作为输入的判别器的输出)与real的一个损失。

1)discriminator(gen_imgs) 的输出是个什么? 既然是判别器,意思就是判别gen_imgs是不是真样本。如果是用softmax输出,是一个概率,为真样本的概率。

2)g_loss = adverisal_loss(discriminator(gen_imgs), real) 计算g_loss就是判别器的输出与real的差距,让g_loss越来越小,就是让gen_imgs作为判别器的输出的概率更接近valid。就是让gen_imgs更像真样本。

3)要注意的是,这个g_loss用于去更新了生成器的权重。这个时候,判别器的权重并没有被更新。

4、分别把假样本和真样本都送入到判别器。

real_loss = adverisal_loss(discriminator(real_imgs), real)fake_loss = adverisal_loss(discriminator(gen_imgs.detach()), fake)d_loss = (real_loss + fake_loss) / 2d_loss.backward()optimizer_D.step()

real_loss是判别器去判别真样本的输出,让这个输出更接近与real。

对抗生成网络(GAN)中的损失函数(对抗生成网络算法)

fake_loss是判别器去判别假样本的输出,让这个输出更接近与fake。

d_loss是前两者的平均。

损失函数向后传播,就是为了让d_loss ---> 0。也就是让:

real_loss ---> 0 ===> 让判别器的输出(真样本概率)接近 real

fake_loss ---> 0 ===> 让判别器的输出(假样本概率)接近 fake

也就是说,让判别器按照真假样本的类别,分别按照不同的要求去更新参数。

5、损失函数的走向?

g_loss 越小,说明生成器生产的假样本作为判别器的输入的输出(概率)越接近real,就是生成的假样本越像真样本。

d_loss越小,说明判别器越能够将识别出真样本和假样本。

所以,最后是要让g_loss更小,d_loss更接近0.5。以至于d_loss最后为0.5的时候,达到最好的效果。这个0.5的意思就是:判别器将真样本全部识别正确,所以real_loss=0。把所有的生成的假样本识别错误(生成的样本很真),此时fake_loss = 1。最后的d_loss = 1/2。

补充:

L1和L2损失函数的区别基础概念

    L1损失函数又称为MAE(mean abs error),即平均绝对误差,也就是预测值和真实值之间差值的绝对值。     L2损失函数又称为MSE(mean square error),即平均平方误差,也就是预测值和真实值之间差值的平方。

相同点

    因为计算的方式类似,只有一个平方的差异,因此使用的场合都很相近,通常用于回归任务中。

差异

    1)L2没有L1鲁棒,直观来说,L2会将误差平方,如果误差大于1,则误差会被放大很多,因此模型会对异常样本更敏感,这样会牺牲许多正常的样本。当训练集中含有更多异常值的时候,L1会更有效。     2)如果是图像重建任务,如超分辨率、深度估计、视频插帧等,L2会更加有效,这是由任务特性决定了,图像重建任务中通常预测值和真实值之间的差异不大,因此需要用L2损失来放大差异,进而指导模型的优化。     3)L1的问题在于它的梯度在极值点会发生跃变,并且很小的差异也会带来很大的梯度,不利于学习,因此在使用时通常会设定学习率衰减策略。而L2作为损失函数的时候本身由于其函数的特性,自身就会对梯度进行缩放,因此有的任务在使用L2时甚至不会调整学习率,不过随着现在的行业认知,学习率衰减策略在很多场景中依然是获得更优模型的手段。  

本文链接地址:https://www.jiuchutong.com/zhishi/297739.html 转载请保留说明!

上一篇:GRU时间序列数据分类预测(时间序列garch)

下一篇:【Linux】rm 命令:删除文件/文件夹(linux rm 命令)

  • vivoz5x怎么关闭hd高清通话(vivoz5x怎么关闭变形器)

  • 苹果11微信打字键盘怎么设置(苹果11微信打字按键音怎么设置)

  • 云服务密码忘了怎么办(云服务密码忘了怎么办荣耀九)

  • 电信iptv密码(电信iptv密码多少)

  • 华为p40怎么删除正在运行(华为p40怎么删除门禁卡)

  • 打qq电话放歌对方能听见吗(打qq电话的时候放歌对方听得到怎么办)

  • excel加行怎么加(怎么在excel加行)

  • 充话费是空号会退钱吗(充话费空号能充进去吗)

  • wps卡了退不出来怎么办(wps卡死关不了)

  • a92s有没有nfc(a92s有没有红外线)

  • vivocamera&music是什么型号(vivocamera&music是什么手机)

  • 苹果xs面容设置不了(苹果xs面容设置没反应)

  • qq群视频上限人数(qq群视频最多几个人参与)

  • 荣耀9x录屏怎么录内部声音(荣耀9x录屏怎么去掉小白点视频教学)

  • d1s和d3s区别(d1s和d3s区别能够共用吗)

  • 手机屏幕字体大小怎么调(华为手机屏幕字体大小怎么调)

  • rtx2060super配什么cpu

  • 华为灭屏显示位置变换(华为灭屏显示位置)

  • 华硕atk怎么安装(华硕笔记本怎么安装atk)

  • 11pro可以双卡吗(11pro可以双卡双待?)

  • 小米5c有nfc功能吗(小米5有nfc功能在哪里)

  • iphone11多重多少克(苹果11多重多大)

  • soulmat需要多久能亮(soul达到soulmate要多久)

  • oppoa7怎么录屏(oppoa7录屏怎么录声音)

  • enteringpowermode电脑怎么开启(entering emergency mode)

  • mac输入法打不出中文解决方法(mac输入法打不出简体)

  • 映泰主板bios设置图解教程(映泰主板bios设置硬盘启动)

  • 【前端修炼场】 — HTML常用的标志语言(web前端修炼之道)

  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设 电脑维修 湖南楚通运网络