位置: IT常识 - 正文

CBAM——即插即用的注意力模块(附代码)(即插即用是什么意思?)

编辑:rootadmin
CBAM——即插即用的注意力模块(附代码)

推荐整理分享CBAM——即插即用的注意力模块(附代码)(即插即用是什么意思?),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:即插即用是什么意思?,即插即用安卓下载,即插即用的含义是指____,即插即用是什么意思?,即插即用的缩写是什么,什么是即插即用?它要达到什么目标,什么是即插即用?它要达到什么目标,即插即用软件是指什么,内容如对您有帮助,希望把文章链接给更多的朋友!

论文:CBAM: Convolutional Block Attention Module

代码: code

目录

前言

1.什么是CBAM?

(1)Channel attention module(CAM)

(2)Spatial attention module(SAM)

(3)CAM和SAM组合形式

2.消融实验

(1)Channel attention

(2)Spatial attention

(3)Channel attention+spatial attention

3.图像分类

4.目标检测

5.CBAM可视化

6.Pytorch 代码实现

总结


前言

CBAM( Convolutional Block Attention Module )是一种轻量级注意力模块的提出于2018年,它可以在空间维度和通道维度上进行Attention操作。论文在Resnet和MobileNet上加入CBAM模块进行对比,并针对两个注意力模块应用的先后进行实验,同时进行CAM可视化,可以看到Attention更关注目标物体。

1.什么是CBAM?

CBAM(Convolutional Block Attention Module)是轻量级的卷积注意力模块,它结合了通道和空间的注意力机制模块。

上图可以看到,CBAM包含CAM(Channel Attention Module)和SAM(Spartial Attention Module)两个子模块,分别进行通道和空间上的Attention。这样不只能够节约参数和计算力,并且保证了其能够做为即插即用的模块集成到现有的网络架构中去。

由上图所示,有输入、通道注意力模块、空间注意力模块和输出组成。输入特征,然后是通道注意力模块一维卷积,将卷积结果乘原图,将CAM输出结果作为输入,进行空间注意力模块的二维卷积,再将输出结果与原图相乘。

(1)Channel attention module(CAM)

通道注意力模块:通道维度不变,压缩空间维度。该模块关注输入图片中有意义的信息(分类任务就关注因为什么分成了不同类别)。

图解:将输入的feature map经过两个并行的MaxPool层和AvgPool层,将特征图从C*H*W变为C*1*1的大小,然后经过Share MLP模块,在该模块中,它先将通道数压缩为原来的1/r(Reduction,减少率)倍,再扩张到原通道数,经过ReLU激活函数得到两个激活后的结果。将这两个输出结果进行逐元素相加,再通过一个sigmoid激活函数得到Channel Attention的输出结果,再将这个输出结果乘原图,变回C*H*W的大小。

通道注意力公式:

CAM与SEnet的不同之处是加了一个并行的最大池化层,提取到的高层特征更全面,更丰富。论文中也对为什么如此改动做出了解释。

AvgPool & MaxPool对比实验

在channel attention中,表1对于pooling的使用进行了实验对比,发现avg & max的并行池化的效果要更好。这里也有可能是池化丢失的信息太多,avg&max的并行连接方式比单一的池化丢失的信息更少,所以效果会更好一点。

(2)Spatial attention module(SAM)

CBAM——即插即用的注意力模块(附代码)(即插即用是什么意思?)

 空间注意力模块:空间维度不变,压缩通道维度。该模块关注的是目标的位置信息。

图解:将Channel Attention的输出结果通过最大池化和平均池化得到两个1*H*W的特征图,然后经过Concat操作对两个特征图进行拼接,通过7*7卷积变为1通道的特征图(实验证明7*7效果比3*3好),再经过一个sigmoid得到Spatial Attention的特征图,最后将输出结果乘原图变回C*H*W大小。

空间注意力公式:

(3)CAM和SAM组合形式

通道注意力和空间注意力这两个模块能够以并行或者串行顺序的方式组合在一块儿,关于通道和空间上的串行顺序和并行作者进行了实验对比,发现先通道再空间的结果会稍微好一点。具体实验结果如下:

由表三可以看出,基于ResNet网络,两个Attention模块按Channel Attention + Spatial Attention的顺序效果会更好一些。

2.消融实验

(1)Channel attention 首先是不同的通道注意力结果比较,平均池化、最大池化和两种联合使用并使用共享MLP来进行推断保存参数,结果如下:

首先,参数量和内存损耗差距不大,而错误率的提高,显然两者联合的方法更优。

(2)Spatial attention

对比7*7卷积核和3*3卷积核的效果,结果7*7卷积核效果更好

(3)Channel attention+spatial attention

对比SEnet、CAM和SAM并行、SAM+CAM和CAM+SAM的效果,最终CAM+SAM效果最好 。

3.图像分类

再数据集ImageNet-1K上使用ResNet网络进行对比实验

4.目标检测

数据集:MS COCO和VOC 2007 如下表所示: MS COCO上,CBAM在识别任务上泛化性能较基线网络有了显著提高。。

如下表: VOC 2007中,采用阶梯检测框架,并将SE和CBAM应用于检测器。CBAM极大的改善了所有强大的基线与微不足道的额外参数。

5.CBAM可视化

本文利用Grad CAM对不一样的网络进行可视化后,能够发现,引入 CBAM 后,特征覆盖到了待识别物体的更多部位,而且最终判别物体的几率也更高,这表示注意力机制的确让网络学会了关注重点信息。

6.Pytorch 代码实现

代码实现:

import torchimport torch.nn as nnclass CBAMLayer(nn.Module): def __init__(self, channel, reduction=16, spatial_kernel=7): super(CBAMLayer, self).__init__() # channel attention 压缩H,W为1 self.max_pool = nn.AdaptiveMaxPool2d(1) self.avg_pool = nn.AdaptiveAvgPool2d(1) # shared MLP self.mlp = nn.Sequential( # Conv2d比Linear方便操作 # nn.Linear(channel, channel // reduction, bias=False) nn.Conv2d(channel, channel // reduction, 1, bias=False), # inplace=True直接替换,节省内存 nn.ReLU(inplace=True), # nn.Linear(channel // reduction, channel,bias=False) nn.Conv2d(channel // reduction, channel, 1, bias=False) ) # spatial attention self.conv = nn.Conv2d(2, 1, kernel_size=spatial_kernel, padding=spatial_kernel // 2, bias=False) self.sigmoid = nn.Sigmoid() def forward(self, x): max_out = self.mlp(self.max_pool(x)) avg_out = self.mlp(self.avg_pool(x)) channel_out = self.sigmoid(max_out + avg_out) x = channel_out * x max_out, _ = torch.max(x, dim=1, keepdim=True) avg_out = torch.mean(x, dim=1, keepdim=True) spatial_out = self.sigmoid(self.conv(torch.cat([max_out, avg_out], dim=1))) x = spatial_out * x return xx = torch.randn(1,1024,32,32)net = CBAMLayer(1024)y = net.forward(x)print(y.shape)总结CBAM中作者对两个注意力机制使用的先后顺序做了实验,发现通道注意力在空间注意力之前效果最好。作者在实验中应用了grad-CAM来可视化feature map,是个非常有用的可视化手段,在图像分类任务中可以观察feature map的特征,解释了为什么模型将原图分类到某一类的结果。加入CBAM模块不一定会给网络带来性能上的提升,受自身网络还有数据等其他因素影响,甚至会下降。如果网络模型的泛化能力已经很强,而你的数据集不是benchmarks而是自己采集的数据集的话,不建议加入CBAM模块。CBAM性能虽然改进的比SE高了不少,但绝不是无脑加入到网络里就能有提升的。也要根据自己的数据、网络等因素综合考量。
本文链接地址:https://www.jiuchutong.com/zhishi/298578.html 转载请保留说明!

上一篇:深度学习模型部署综述(ONNX/NCNN/OpenVINO/TensorRT)

下一篇:YOLOv8训练自己的数据集(超详细)(yolov8训练自己的数据集 Windows)

  • 实收资本印花税是营业账簿吗
  • 研发支出属于什么科目借贷方向
  • 公司减免社保到几月份
  • 应付股东现金股利通过什么核算
  • 存续小微企业
  • 收到投资款需要缴纳增值税吗
  • 企业之间的借款利息计入什么科目
  • 逐步测试法计算内含报酬率
  • 会计科目应收账款什么意思
  • 无形资产土地的入账价值包括哪些
  • 餐饮公司如何挣钱
  • 技术服务从哪年开始实施
  • 金税盘抵减税款分录
  • 小微企业每年可以开多少发票北京
  • 水利基金的计税依据是含税收入还是不含税收入
  • 提示没有安装QQ怎么处理
  • 自建公司什么意思
  • 小规模纳税人需要汇算清缴吗
  • 原材料账户期末贷方余额反映
  • 服务,不动产和无形资产扣除项目明细
  • 小规模补缴增值税怎么算
  • 商标注册费相关法律法规
  • php推送微信公众号客户消息
  • php如何导入数据库
  • 退回的企业所得税怎么做账
  • 售后租回交易形成融资租赁会计处理
  • 国家对国有企业采取的政策是怎样的
  • 纳税人代扣代缴
  • uniapp获取window对象
  • yolov8目标检测测试输出类别个数
  • 运动目标检测算法
  • thinkphp登录
  • ccna 试题
  • thinkphp3.x连接mysql数据库的方法(具体操作步骤)
  • iframe嵌套页面点击里面的按钮
  • axure rp 9视频教程
  • 什么叫误餐费
  • 如何做进项税额明细表
  • 生产辅料怎么分类
  • 购入已提足折旧的固定资产账务处理
  • 品种法成本核算的程序有哪几步?
  • 微店企业店铺和个人店铺的区别
  • 发票金额少于付款金额怎么做账
  • 营业成本包含哪些项目
  • 公司账户资金转个人账户
  • 小微企业免税额度是多少
  • 把上级机关来文转给下级机关的通知
  • 销项税额和转出未交增值税余额怎么结转
  • 发票开预付卡充值可以计入费用吗?
  • 对公账户 取款
  • 企业注销股东投资款怎么处理
  • 没有申报未开票收入怎么办
  • 企业一般账户开户申请理由
  • 进项跟销项金额一样是否可行
  • 卖掉公司旧办公用品怎么入账
  • 坏账准备怎么计提比例
  • 企业收到的应收票据应按什么作为入账金额
  • 设置会计账簿应当遵循的基本原则有
  • 在mysql中,创建数据库的基本语法格式是
  • mysql事物的作用
  • vista win
  • ubuntu系统常用命令
  • 黑苹果驱动说明
  • sun solaris 8何启用telnet ftp 功能
  • linux 查看so
  • windows任务管理器占用cpu过高
  • win8使用教程和技能
  • linux的hostname(主机名)修改详解
  • win10自带绘画
  • win8系统电脑卡
  • cocos2d-js教程
  • android ndk cmake
  • node.js使用教程
  • unity3d怎么做动画
  • django批量创建数据
  • 季度税额怎么算
  • 欠款抵押房产可以直接过户吗
  • 不能抵扣消费税口诀
  • 竣工开始缴房产税吗
  • 青岛市地方税务局关于发票
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设