- 一文搞懂深度学习的注意力机制 | 软和硬到底如何抉择?
- 《双重注意力模块 DoubleAttention》| A2-Nets: Double Attention Networks
- 《混合注意力ACmix 模块》 | On the Integration of Self-Attention and Convolution
- 《坐标注意力 Coordinate Attention》 | Coordinate Attention for Efficient Mobile Network Design
- 《卷积注意力模块 CBAM》 | CBAM: Convolutional Block Attention Module
- 《上下文注意力 CoT Attention》 | Contextual Transformer Networks for Visual Recognition
- 《高效的通道注意力》 | ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks
- 《全局注意机制 GAM》 | Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions
- 《大核注意力 LKA》 | Visual Attention Network
- 《挤压激励注意力 SE》 | Squeeze-and-Excitation Networks
- 《混洗注意力 Shuffle Attention》 | SA-NET: SHUFFLE ATTENTION FOR DEEP CONVOLUTIONAL NEURAL NETWORKS’
- 《简单无参注意力 SimAM》 | SimAM: A Simple, Parameter-Free Attention Module for Convolutional Neural Networks
- 《选择内核注意力 SK》 | Selective Kernel Networks