新手小白勇闯新世界

新手小白勇闯新世界


论文:(2018)包含空间注意力通道注意力两部分1807.06521深度学习知识点3-CBAM轻量的注意力模块-LMLPHPhttps://arxiv.org/pdf/1807.06521

深度学习知识点3-CBAM轻量的注意力模块-LMLPHP深度学习知识点3-CBAM轻量的注意力模块-LMLPHP

深度学习知识点3-CBAM轻量的注意力模块-LMLPHP

 通道注意力:对input feature maps每个feature map做全局平均池化和全局最大池化,得到两个1d向量,再经过conv,ReLU,1x1conv,sigmoid进行归一化后对input feature maps加权。

空间注意力:对feature map的每个位置的所有通道上做最大池化和平均池化,得到两个feature map,再对这两个feature map进行7x7 Conv,再使BN和sigmoid归一化。

局限性:CBAM是通过对每个位置的多个通道取最大值和平均值来作为加权系数,因此这种加权只考虑了局部范围的信息。

参考:CVPR2021|| Coordinate Attention注意力机制_位置注意力机制-CSDN博客

11-13 19:34