1 Data Augmentation

介绍一篇发表在Big Data上的数据增强相关的文献综述。

  1. 直接均值相加混合。

  2. 深度学习之目标检测的技巧汇总-LMLPHP

      还有非线性的mixup裁剪如下:

    深度学习之目标检测的技巧汇总-LMLPHP

      以及随机裁剪的图像混合:

    深度学习之目标检测的技巧汇总-LMLPHP

      这些混合方式是十分反人类直觉的,因此可解释性不强。只能说是可能增强了对底层低级特征如线条边缘等的鲁棒性。其实有点没有抓住关键点。

    • Random erasing
      随机擦除就是类似cutout的思想,通过mask的遮挡使得网络能够提高遮挡情况的鲁棒性。需要手工设计的部分包括mask的大小以及生成方式。是一种比较有效的方法。这种方式也需要考量增强的安全性,比如MNIST数据集8cutout后可能出问题。

    深度学习之目标检测的技巧汇总-LMLPHP

    • A note on combining augmentations
      组合的增强方式往往是连续变化的,导致数据集的容量会迅速扩大,这对于小数据集领域来说容易发生过拟合 ,所以需要设计合理的搜索算法设计恰当的训练数据集。

    2.3 )

    1. Design considerations for image Data Augmentation

    3.1 Test-time augmentation
      许多都论文指出在检测阶段进行同等的数据增强能够获得较好的效果。归结可以认为是训练检测阶段的一致性。当然,这种手段时间成本太高,只在如医学影像等追求精度的关键领域可以使用。

    3.2 Curriculum learning
      Bengio团队早年在ICML提出的观点,确实合理,一开始就进行大量的增强容易导致网络不收敛。
    从一个数据集学习到的数据增强也可以迁移到其他数据集。

    3.3 Resolution impact
    高清(1920×1080×3)或4K(3840×2160×3)等高分辨率图像需要更多的处理和内存来训练深度CNN。然而下一代模型更倾向于使用这样更高分辨率的图像。因为模型中常用的下采样会造成图像中信息的丢失,使图像识别更困难。
    研究人员发现,高分辨率图像和低分辨率图像一起训练的模型集合,比单独的任何一个模型都要好。
    某个实验(这里就不注明引用了)在256×256图像和512×512图像上训练的模型分别获得7.96%和7.42%的top-5 error。汇总后,他们的top-5 error变低,为6.97%。
    随着超分辨率网络的发展,将图像放大到更高的分辨率后训练模型,能够得到更好更健壮的图像分类器。

    3.4 Final dataset size
      数据增强的形式可以分为在线和离线增强。前者是在加载数据时增强,可能造成额外的内存消耗(现在都是数据容量不变的随机增强)。
      此外作者提到了一个比较有意思的点:当前数据集尤其是进行增广后是十分庞大的,明显能够在一定程度上缩小数据集但是保持性能下降不多的子集效率会高得多。

    3.5 Alleviating class imbalance with Data Augmentation
      这也是值得借鉴的一点。通过增强在一定程度上解决类别不平衡问题。但增强需要仔细设计,否则会面对已经学习较好的类别或者场景造成过拟合等问题。

    8.5.2 OHEM

    8.5.3 NMS:Soft NMS/ Polygon NMS/ Inclined NMS/ ConvNMS/ Yes-Net NMS/ Softer NMS

    8.5.4 Multi Scale Training/Testing

    8.5.5 建立小物体与context的关系

    8.5.6 参考relation network

    8.5.7 结合GAN

    8.5.8 结合attention

    8.5.9 训练tricks

    介绍一篇2019.2.4亚马逊挂在ArXiv的目标检测训练tricks的文章(之前亚马逊发了篇分类的tricks在CVPR上)

    1. Introduction

      上次亚马逊发了个分类的训练trick在CVPR上,这次是检测的,还没发表。就没什么多说的了,下面直接介绍。先看效果如下,其实摘要声称的5%是单阶段的yolov3的提升,说明:单阶段没有RoIPooling阶段很多性质确实不如两阶段,因此采用trick很有必要;相反,两阶段本身结构优于单阶段所以外加的trick提供的如不变性等网络自身能够学习和适应就不起作用了。

    深度学习之目标检测的技巧汇总-LMLPHP

    1. Bag of Freebies

      提出了一种基于mixup的视觉联系图像混合方法,以及一些数据处理和训练策略。

    2.1 Visually Coherent Image Mixup for Object Detection
      先介绍图像分类中的mixup方法,作用是提供了训练的正则化,应用到图像上如下图,将图像作简单的像素值输入mixup的凸函数中得到合成图;然后将one-hot编码类似处理得到新的label。

    深度学习之目标检测的技巧汇总-LMLPHP

      技术细节:

    • 相比于分类的resize,为了保证检测图像不畸变影响效果,作者选择直接叠加,取最大的宽高,空白进行灰度填充,不进行缩放。
    • 选择ab较大(如1.5,1.5)的Beta分布作为系数来混合图像,作者说是相干性视觉图像的更强;loss是两张图像物体的loss之和,loss计算权重分别是beta分布的系数

    深度学习之目标检测的技巧汇总-LMLPHP

    2.2 Classification Head Label Smoothing
      标签平滑在检测的分类任务常有用到,最早是Inceptionv2中提出。
      如果标签中有的是错的,或者不准,会导致网络过分信任标签而一起错下去。为了提高网络泛化能力,避免这种错误,在one-hot的label进行计算loss时,真实类别位置乘以一个系数(1-e),e很小如0.05,以0.95的概率送进去;非标注的类别原来为0,现在改为e=0.05送进去计算loss。网络的优化方向不变,但是相比0-1label会更加平滑。
    (标签平滑这个讲的不错:https://juejin.im/post/5a29fd4051882534af25dc92)

    深度学习之目标检测的技巧汇总-LMLPHP

      这里进一步改进了一下label smooth的公式而已,在原来基础上除了个类别数。

    2.3 Data Preprocessing
      就是数据增强,没什么其他的。至于分类也是几何变换和色彩变换。这么分区别其实是是否变换label。但是将真实世界就这么简单地分解过于粗糙了。好不容易谷歌的增强考虑到了如何学习一下检测任务的增强,但是也只是加了bbox_only的增强,就效果而言,一般;而且就实际来说,合理性和有效性有待商榷。
      作者认为,两阶段网络的RPN生成就是对输入的任意裁剪,所以这个增强就够了;这老哥膨胀了,two-stage就不用裁剪的增强,虽然两阶段能提供一些不变性,但是用了一般来说都是更好的。

    2.4 Training Schedule Revamping
    训练策略上:余弦学习率调整+warmup

    2.5 Synchronized Batch Normalization
    跨多卡同步正则化

    2.6 Random shapes training for single-stage object detection networks
    多尺度训练,每经过一定的iteration更换一种尺度。举例是yolov3的尺度范围。

11-20 12:21