相比较于前两篇论文,个人感觉YOLO3作者有点来搞笑的!!!虽然加了一些新的点子进来,但是,论文的开头是这样的:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

简单理解就是作者花了很多时间玩Twitter去了,所以没有做啥研究!!!!

然后:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

你可以引用自己的论文吗?猜猜谁会这么做,就是这家伙,然后我发现链接竟然是他自己这篇论文:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

还有调侃下谷歌、脸书等大公司和目标检测等技术:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

很多从事这项研究的在谷歌和脸书,所以我们应该相信他们不会用技术来采集我们的信息然后拿来卖!!!等等,你是说这才是技术的真正用途????哈哈,投资计算机视觉研究的都是军方的人,他们从未将新技术用来杀人!!!

接着作者说:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

希望搞计算视觉的人是出于兴趣做一件快乐的事情,比如数数公园里斑马的数量,跟踪下房子周围的猫!!!!

重要的是接下来的一句,他说:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

不要艾特我,我终于退出推特了!!!

好咯,言归正传,那么其实这篇论文相比较前两篇,倒是没啥其他特别的点,总结起来主要也就是新的骨架和多尺度。

一、Bounding Box Prediction

目标边界框的预测实际上也还是沿用YOLO2的做法,网络会预测每个网格中目标边界框的四个坐标txtytwth,如果每个网格相对于整体图像的左上角的偏移量为(Cx,Cy),而先验边界框的宽度和高度为pwph,那么由预测值到坐标的映射如下:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

训练的时候则是取所有损失的平方和。

YOLO3采用逻辑回归来预测每个边界框的包含目标的分数objectness score,如果边界框与ground truth object的重叠大于其它边界框,那么其分数为1,如果边界框不是最好的,但是与ground truth object的重叠大于一定阈值,那么就忽略该预测。系统只为每个ground truth object分配一个边界框,没有分配的边界框就不会对坐标或者类别的预测造成损失?

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

二、Class Prediction

类别预测,YOLO3不适用softmax,因为发现没啥特别影响,所以用独立的逻辑分类器。训练的时候用了二元交叉熵损失函数。

三、Predictions Across Scales

多尺度预测,YOLO3使用了三个尺度,借鉴了FPN,使用多尺度。最后一个卷积提取了一个三维的编码了边界框、目标分数和类别预测等信息的张量,以COCO数据集为例子,每个尺度都会预测三个边界盒子,那么每个尺度的张量大小为:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

其中4为4个边界框偏移量,1个目标检测分数,80个类别的概率。三个尺度之间的大小关系是彼此2倍的递进的关系。通过上采样将小尺度特征图与大尺度特征图拼接,然后又新加一些卷积层对融合后的特征做了处理。

YOLO3同样使用K均值聚类来计算先验框,对三个尺度计算了9个类,分别为:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

四、Feature Extractor

特征提取部分,YOLO3设计了新的骨架,Darknet53,因为用了53个卷积层:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

新骨架与Darknet19和其它网络的性能对比如下:

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

Darknet53的表现还是比较好的。

四、Training

跟YOLO2的做法基本上是类似的。

五、Things We Tried That Didn’t Work

作者做了一些新的尝试,但是没有作用:

1、Anchor box x, y offset predictions:尝试用常规的先验框机制,也就是用线性激活函数预测x、y为边界框宽度和高度的倍数,但是没用。

2、Linear x, y predictions instead of logistic:用线性激活函数直接预测x、y偏移量,而不是用逻辑回归,没用。

3、Focal loss:尝试用Focal loss,但是没用,可能YOLO3对于Focal loss要解决的问题来说已经很溜了,不需要Focal loss了吧,这点作者做了一些测试,但是也说不准。

4、Dual IOU thresholds and truth assignment:尝试采用Faster RCNN采用的双阈值策略,但是没用。

六、YOLO3 表现:

在COCO上与其它算法的对比,不如RetinaNet,但是基本上也还是比SSD好一些(相爱相杀?)

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

[YOLO]《YOLOv3: An Incremental Improvement》笔记-LMLPHP

论文:https://arxiv.org/pdf/1804.02767.pdf

05-20 23:27