💡💡💡本文改进内容: 引入CloFormer
中的 AttnConv,
上下文感知权重使得模型能够更好地适应输入内容。相比于局部自注意力机制,引入共享权重使得模型能够更好地处理高频信息,从而提高性能。
💡💡💡注意力机制与卷积的完美融合 AttnConv
| 亲测在多个数据集能够实现涨点
改进结构图如下:
《YOLOv9魔术师专栏》将从以下各个方向进行创新:
【原创自研模块】【多组合点优化】【注意力机制】【卷积魔改】【block&多尺度融合结合】【损失&IOU优化】【上下采样优化 】【SPPELAN & RepNCSPELAN4优化】【小目标性能提升】【前沿论文分享】【训练实战篇】</