YOLOv9改进策略 :注意力机制 | 注意力机制与卷积的完美融合 | 最新移动端高效网络架构 CloFormer
💡💡💡本文改进内容: 引入CloFormer 中的 AttnConv,上下文感知权重使得模型能够更好地适应输入内容。相比于局部自注意力机制,引入共享权重使得模型能够更好地处理高频信息,从而提高性能。 💡💡💡注意力机制与卷积的完美融合 AttnConv | 亲测在多个数据集能够实现涨点 改进结构图如下: 《YOLOv9魔术师专栏》将从以下各个方向进行创新: 【原创自研模块】【多组合点优化】【注...
YOLOv9改进策略 :卷积魔改 | 感受野注意力卷积运算(RFAConv)
💡💡💡本文改进内容:感受野注意力卷积运算(RFAConv),解决卷积块注意力模块(CBAM)和协调注意力模块(CA)只关注空间特征,不能完全解决卷积核参数共享的问题 💡💡💡使用方法:代替YOLOv9中的卷积,使得更加关注感受野注意力,提升性能 💡💡💡RFAConv| 亲测在多个数据集能够实现大幅涨点,有的数据集达到3个点以上 改进结构图如下: 《YOLOv9魔术师专栏》将从以下各个方向进行创新: 【...
YoloV8改进策略:BackBone改进|EfficientVMamba(独家原创)
摘要 本文使用EfficientVMamba的主干网络替代YoloV8的主干网络,实现涨点。Mamba是今年比较火的主干网络,使用Mamba改进的论文比较容易被顶会接收,如果有发论文的同学,非常推荐使用。 论文:《EfficientVMamba:轻量级视觉Mamba的空洞选择性扫描》 https://arxiv.org/pdf/2403.09977.pdf 先前的轻量级模型开发努力主要集中在基于CNN和...
YOLOv9改进策略 :主干优化 | ConvNeXtV2:适应自监督学习,让 CNN “再一次强大”?
💡💡💡本文改进内容:完全卷积掩码自编码器框架 ConvNeXt V2,它显著提高了纯convnet在各种识别基准上的性能,包括ImageNet分类,COCO目标检测和ADE20k分割。还提供了各种尺寸的预训练ConvNeXt v2模型,从而在ImageNet上具有76.7%精度的3.7M Atto model和88.9%精度的650M huge model。 改进结构图如下: ...
YoloV8改进策略:Neck和Head改进|ECA-Net:用于深度卷积神经网络的高效通道注意力|多种改进方法|附结构图
摘要 本文使用ECA-Net注意力机制加入到YoloV8Neck和Head中。我尝试了多种改进方法,并附上改进结果,方便大家了解改进后的效果,为论文改进提供思路。 论文:《ECA-Net:用于深度卷积神经网络的高效通道注意力》 arxiv.org/pdf/1910.03151.pdf 最近,通道注意机制已被证明在改善深度卷积神经网络(CNN)的性能方面具有巨大潜力。然而,大多数现有方法致力于开发更复杂的...
YOLOv9改进策略:IoU优化 | Wasserstein Distance Loss,助力小目标涨点
💡💡💡本文独家改进:基于Wasserstein距离的小目标检测评估方法 Wasserstein Distance Loss | 亲测在多个数据集能够实现涨点,对小目标、遮挡物性能提升明显 💡💡💡MS COCO和PASCAL VOC数据集实现涨点 YOLOv9魔术师专栏 ☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️ ☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️ ...
YoloV8改进策略:BackBone改进|ECA-Net:用于深度卷积神经网络的高效通道注意力
摘要 本文使用ECA-Net注意力机制加入到YoloV8中。我尝试了多种改进方法,并附上改进结果,方便大家了解改进后的效果,为论文改进提供思路。 论文:《ECA-Net:用于深度卷积神经网络的高效通道注意力》 arxiv.org/pdf/1910.03151.pdf 最近,通道注意机制已被证明在改善深度卷积神经网络(CNN)的性能方面具有巨大潜力。然而,大多数现有方法致力于开发更复杂的注意模块以实现更好...
YOLOv9改进策略:卷积魔改 | SPD-Conv,低分辨率图像和小物体涨点明显
💡💡💡本文改进内容:SPD-Conv由一个空间到深度(SPD)层和一个无卷积步长(Conv)层组成,特别是在处理低分辨率图像和小物体等更困难的任务时。 💡💡💡SPD-Conv在多个数据集验证能够暴力涨点,适合急需要涨点的项目 YOLOv9魔术师专栏 ☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️ ☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️☁️ 包含注意力机制魔改...