位置: IT常识 - 正文

FCN全卷积网络理解及代码实现(来自pytorch官方实现)(全卷积网络fcn详解)

编辑:rootadmin
FCN全卷积网络理解及代码实现(来自pytorch官方实现)

推荐整理分享FCN全卷积网络理解及代码实现(来自pytorch官方实现)(全卷积网络fcn详解),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:全局卷积,全卷积网络(fcn)与图像分割,全局卷积,fcn全卷积神经网络搭建,什么是全卷积网络,fcn全卷积神经网络搭建,fcn全卷积神经网络搭建,全卷积网络fcn详解,内容如对您有帮助,希望把文章链接给更多的朋友!

视频链接:https://www.bilibili.com/video/BV1J3411C7zd?vd_source=a0d4f7000e77468aec70dc618794d26f 代码:https://github.com/WZMIAOMIAO/deep-learning-for-image-processing

FCN是2015年提出的首个端对端的针对像素级预测的全卷积网络。 如今的pytorch实现的FCN都是基于ResNet-50的backbone,不是论文中的VGG16,且使用的是空洞卷积(也叫膨胀卷积)

pytorch官方实现的FCN网络结构图

博主github:https://github.com/WZMIAOMIAO/deep-learning-for-image-processing/tree/master/pytorch_segmentation/fcn

一、相比以前网络的巨大提升:

二、传统使用池化层最后得到的其实是一个长度为1000的向量:

而换为卷积层之后,最后得到的是1000通道的2D图像,可以可视化为heat map图。

三、回顾VGG16

一般说的vgg16是D: 全连接操作前后:77512(通道)

【假设忽略偏置】\color{red}{【假设忽略偏置】}【假设忽略偏置】 全连接FC1计算:计算对应某一个结点的输出,将该节点与上一层某一个结点的权重与输入对应节点数值相乘,再求和

FC1参数:25088*4096=102760448

下层使用7*7的卷积核、stride=1,4096个卷积核的一个卷积层

Conv参数:77512*4096=102760448

一个卷积核和FC1一个节点参数量一样\color{red}{一个卷积核和FC1一个节点参数量一样}一个卷积核和FC1一个节点参数量一样,一共4096个卷积核,FC也是4096个节点。

【不忽略偏置的正常卷积操作,4096个卷积核应该有4096个偏置项】\color{red}{【不忽略偏置的正常卷积操作,4096个卷积核应该有4096个偏置项】}【不忽略偏置的正常卷积操作,4096个卷积核应该有4096个偏置项】

PS:全连接层

全连接层的输入是一维数组,多维数组需先进行Flatten进行一维化处理,然后连接全连接层。全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。全连接图结构如下: 其中,x1、x2、x3为全连接层的输入,a1、a2、a3为输出,有

全连接层参数计算

权值参数=输入一维数组大小*全连接层输出结点数 偏置参数b=全连接层输出结点数

eg: 输入有[5044]个神经元结点,输出有500个结点,则一共需要5044*500=400000个权值参数W和500个偏置参数b

卷积和全连接层

卷积跟全连接都是一个点乘的操作,区别在于卷积是作用在一个局部的区域,而全连接是对于整个输入而言,那么只要把卷积作用的区域扩大为整个输入,那就变成全连接了,我就不给出形式化定义了。所以我们只需要把卷积核变成跟输入的一个map的大小一样就可以了,这样的话就相当于使得卷积跟全连接层的参数一样多。 eg:输入是224x224x3 的图像,假设经过变换之后最后一层是[7x7x512]的,那么传统的方法应该将其展平成为一个7x7x512长度的一层,然后做全连接层,假设全连接层为4096×1000层的(假设有1000个分类结果)。 那么用1×1卷积核怎么做呢,因为1×1卷积核相当于在不同channel之间做线性变换,所以:

先选择7×7的卷积核,输出层特征层数为4096层,这样得到一个[1×1×4096]层的 然后再选择用1×1卷积核,输出层数为1000层,这样得到一个[1×1×1000]层这样就搞定了。

四、FCN-32s、16s、8s的区别

上采样倍率为32的模型对应的就是FCN-32s,16s、8s同理。

FCN-32s

FCN原论文中backbone的第一个卷积层padding=100,为了防止图片过小(例如192192)后面的卷积层会报错。 如果图片小于3232的话在卷积过程就会报错。 但是没必要设置,只要输入图片大小大于32*32,我们就可以将padding设置为3。 对于FCN-32s:

vgg16 backbone输出的特征图大小就为h/32,w/32,512。高度宽度变为原图的1/32。

之后经过FC6层:由于我们将FC6卷积层的padding设置为3、卷积核大小7*7,通过FC6之后将不会改变特征图的高和宽;且我们使用了4096个卷积核,所以这里就得到了4096个2D特征图。

FCN全卷积网络理解及代码实现(来自pytorch官方实现)(全卷积网络fcn详解)

经过FC7:使用了1*1大小的卷积核,步距也为1,所以输出特征图shape也不会发生变化。

之后经过卷积核大小为1*1的卷积层:它的卷积核的个数和我们的分类类别数一样(包含背景,对于voc为20类+1背景),将特征图通道数变为num_cls。

之后通过一个转置卷积:这里的s32我们会将特征图上采样32倍【原论文中使用的是双线性插值】,得到特征图大小变为h,w,num_cls。

之后特征图经过一个softmax处理就能得到针对每一个pixel的预测类别。 前面的backbone使用的是vgg16的预训练权重,整个结构十分简单,但是效果还是非常不错的。 其实这里的转置卷积在原论文中其实是将参数给冻结住了,冻结住意味着其实它就是一个简单的双线性卷积了。

所以这里其实可以不使用转置卷积,可以直接使用深度学习框架提供给我们的双线性插值方法。

为什么会冻结呢?作者说冻结不冻结作者觉得结果好像没有什么差别,而且冻结参数会少一些。up主觉得冻结不冻节效果一般的原因是这里的上采样倍率太大了,有点强人所难的感觉。有兴趣的可以看一下u-net中的上采样率是多少。

FCN-16s

FC6、FC7、Conv2d核32s的一样。 不同点:

转置卷积上采样率变为了2倍,之后高和宽变为1/16下面分支经过maxpool4之后变也为1/16,通道数为512;后接上了一个1*1卷积、卷积核数量为num_cls、步长为1,得到特征图大小1/16、通道数变为num_cls之后进行一个相加操作,转置卷积上采样16倍就得到了原图大小h,w,num_cls

【FCN−16s中融合了来自maxpool4的信息】\color{red}{【FCN-16s中融合了来自maxpool4的信息】}【FCN−16s中融合了来自maxpool4的信息】

须知:vgg16经过mxpool3之后特征图大小下采样率为8,经过maxpool4后下采样率为16。

FCN-8s

不同点:

8s还利用了来自于mxpool3的信息,经过16s类似的1*1卷积层后得到一个1/8,通道数为num_cls的特征图;FCN-16s上两层后得到的1/16特征图,经过一个转置卷积上采样,采样率为2倍就能得到一个和maxpool3输出尺寸一样的1/8的特征图一块进行一个相同位置元素的相加操作【进一步的融合】,最后进行一个上采样倍率为8的转置卷积就能得到一个和原图大小一样的特征图大小h,w,num_cls。

【由此可见,FCN−16s和FCN−8s融合了一个底层的信息;而FCN32s是最简单的,它没有融合底层信息】\color{red}{【由此可见,FCN-16s和FCN-8s融合了一个底层的信息;而FCN32s是最简单的,它没有融合底层信息】}【由此可见,FCN−16s和FCN−8s融合了一个底层的信息;而FCN32s是最简单的,它没有融合底层信息】在网上看到最多的是FCN-32的实现。

五、损失计算

针对每一个pixel都会去计算它所对应的一个Cross Entropy Loss,然后将所有pixel的交叉熵损失进行一个求平均操作就得到了一个我们网络的最终的一个损失

六、语义分割评价指标

见前言:语义分割前沿

七、代码实现

ResNet-50中先经过conv1 7*7的一个卷积

conv_2:3*3的一个最大池化下采样,再接上3个残差块(对应右图layer1)conv_3:4个残差块(对应layer2)

不同的地方:\color{red}{不同的地方:}不同的地方:

layer3:这里也有6个残差结构,1个Bottleneck1+5个Bottleneck2layer4:3个残差结构,1个Bottleneck1+2个Bottleneck2

Bottleneck1:

将残差连接的2*2卷积层步距改为1,原来resnet这个分支会进行一个下采样将高和宽缩短为一半,【这里因为语义分割中下采样倍率过大的话,再还原成原图后,这里的效果其实会受影响,所以我们这里就没有必要再做一个下采样了。】

此外主干分支3*3卷积的步距也从2改为了1,同时引入了r参数,即膨胀系数。

Bottleneck2: 接下来通过FCN Head模块:33卷积层缩小通道为原来的1/4【2048-512】,再通过一个dropout和一个11卷积层,这里11卷积层调整特征层的channel为分割类别中的类别个数。 最后经过双线性插值还原特征图大小到原图。【图例:输入480480,上采样也到480*480】

layer3中引出的一条FCN Head,官方回答:为了防止误差梯度没法传递到网络浅层,这里就引入了一个辅助分类器。和google net中辅助分类器是差不多的。 训练的时候是可以使用辅助分类器件的【可用可不用,都可以试一下】,但是最后去预测或者部署到正式环境的时候只用主干的output,不用aux output。 up主的代码地址:https://github.com/WZMIAOMIAO/deep-learning-for-image-processing/tree/master/pytorch_segmentation/fcn

本文链接地址:https://www.jiuchutong.com/zhishi/298954.html 转载请保留说明!

上一篇:Swagger-的使用(详细教程)

下一篇:Vue中created和mounted详解(vue中created和mounted)

  • 印花税资本金项目如何缴纳
  • 房地产开发企业土地增值税预缴
  • 公司购买员工意外保险费会计分录未收到发票
  • 进项认证以后如何开具红字信息表
  • 旅游大巴怎么计费的
  • 有营业额有成本怎么算成本占比
  • 金融债券的利息收入
  • 所得税在什么情况下扣除
  • 税控服务费减免税款分录
  • 已出库未开票未收款会计分录
  • 天猫店铺收入在哪里看
  • 企业养老金计算公式举例说明
  • 缴纳个税和社保
  • 销售退回的会计分录金额怎么写
  • 将自产产品赠送他人
  • 招待费进项税额转出会计分录
  • 公司买了股票怎么做账
  • 企业所得税怎么征收几个点
  • 税控盘全额抵扣怎么做账
  • 税种核定办理流程
  • 机器设备的拆除方法
  • 特朗普政府公布大力度减税方案
  • 混业经营如何缴税?
  • 专用发票抵扣联丢失怎么办最新规定
  • 固定资产维修费率
  • 维修设备领用材料会计分录怎么写
  • 金融服务的手续费要交税吗
  • win10双系统删除linux
  • 股票涨幅公式怎么写
  • PHP函数func_num_args用法实例分析
  • 非正常原因造成的损失计入什么科目
  • 玩游戏的显示器要高刷还是高分辨率
  • 备用金会涨额度吗
  • 应收的罚款收入计入什么科目
  • 增值税密码锁定怎么办
  • vuepress plugin
  • 汽车租赁的法律
  • 电费发票查不到
  • 税控盘开票日期一般截止到下个月几号
  • python slic
  • 售价金额核算法的优点有
  • 支付委托加工费的记账凭证
  • sql计算字符串中文个数
  • mongodb从入门到商业实战
  • 利润分配会计处理例题
  • 小规模纳税人免税会计分录
  • 计提生产经营所得
  • 以红字冲回
  • 一般纳税人增值税怎么做账务处理
  • 住宿费开专票怎么做账
  • 购入固定资产会计处理
  • 企业转让固定资产企业所得税
  • 销售预付卡的账务处理
  • 行政事业单位计提工资怎么做账
  • 收到对方红字发票信息表怎么处理
  • 存货跌价准备的账务处理
  • 查账征收的个体户怎么交个税
  • asp.net ui
  • mysql数据库性能
  • win8语言栏不见了 怎么调出来
  • windowsxpwindows7都是
  • centos6.7安装图形界面教程
  • 如何管理和维护宿舍卫生
  • hyper-v win98
  • win10系统锁屏广告怎么取消
  • python 执行命令
  • 序列化为json
  • 关于android中view的说法正确的是
  • 查看系统网络连接数
  • unity做app
  • jquery常用的事件绑定函数有哪些
  • 安卓手机管家是什么
  • ubuntu安装步骤详解
  • 如何搭建应用服务器
  • python27文件夹
  • 福建电子发票开票流程?
  • 外经证可以不交企业所得税吗
  • 贵州税务机关
  • 企业所得税按开票金额的多少计算税率
  • 成都国税工勤人员待遇
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设