摘要

在目标检测中,深度神经网络的计算效率至关重要,尤其是随着新型模型越来越注重速度而非有效计算量(FLOP)。这一发展趋势在某种程度上忽视了嵌入式和面向移动设备的AI目标检测应用。在本文中,我们基于FLOP关注于高效目标检测计算所需的神经网络架构设计选择,并提出了一些优化措施以增强基于YOLO模型的效率。首先,我们借鉴了倒置瓶颈和来自信息瓶颈原理的理论见解,引入了一种高效的骨干网络缩放方法。其次,我们提出了快速金字塔架构网络(FPAN),旨在促进快速多尺度特征共享的同时减少计算资源。最后,我们设计了一种解耦网络中的网络(DNiN)检测头,旨在为分类和回归任务提供快速且轻量级的计算。基于这些优化并利用更高效的骨干网络,本文为目标检测和以YOLO为中心的模型贡献了一种新的缩放范式,称为LeYOLO。我们的贡献在各种资源限制条件下始终优于现有模型,实现了前所未有的精度和FLOP比。特别是,LeYOLO-Small在COCO验证集上以仅4.5 FLOP(G)的计算量达到了具有竞争力的 38.2 % 38.2\% 38.2%</

08-13 14:52