EfficientDet阅读笔记

2023-10-28

EfficientDet: Scalable and Efficient Object Detection

2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)

论文地址: https://arxiv.org/abs/1911.09070
作者: Mingxing Tan, Ruoming Pang, Quoc V. Le
代码地址1: https://github.com/zylo117/Yet-Another-EfficientDet-Pytorch
代码地址2: https://github.com/bubbliiiing/efficientdet-pytorch

1、创新点

  • 提出了一种加权的双向特征金字塔网络(BiFPN);
  • 提出了一种复合尺度方法,同时统一尺度所有主干网络、特征网络和边界框/类别预测网络的分辨率、深度和宽度。
    EfficientDet-D7用52M的参数和325B FLOPs在coco测试数据集上取得52.2AP,较以前的检测器小4-9倍,少使用13-42倍的FLOPs。
    在这里插入图片描述

2、BiFPN

2.1 结构

在这里插入图片描述
传统的FPN结构受限于单一方向的信息流;PANet在FPN基础上增加了一个自下而上的路径聚合网络(path aggregation network);NAS-FPN使用神经网络搜索更好的多尺度特征网络拓扑,但这需要成千张GPU,发现的网络也不规则,并且非常难解释和修改。
本文就多尺度连接提出几项改进:

  1. 删除只有单输入的节点。没有特征融合意味着对特征网络贡献小。
  2. 在同级的输入和输出端增加shortcut。不增加计算成本的情况下融合更多特征。
  3. 相较于PANet只有一个Top-Down和Down-Top,BiFPN将双向路径作为一个特征网络层,可重复使用,以便融合跟多特征。
    在这里插入图片描述

2.2 加权特征融合数学表达式

  1. Unbounded fusion
    在这里插入图片描述
    w是个可学习的参数,缺点是权重没有约束,将导致训练不稳定。
  2. Softmax-base fusion
    在这里插入图片描述
    听过softmax将权重缩放至(0, 1)之间,但softmax增加了运算时间。
  3. Fast normalized fusion
    在这里插入图片描述
    每个wi后使用Relu激活,ε = 0.0001防止分母为0。
    在这里插入图片描述
    由Table 6知方法3比2快了不少,但AP并没有损失多少。
    在这里插入图片描述

3、复合缩放方法

在这里插入图片描述
使用一个超参数φ就可以缩放主干网络、BiFPN、class/box network和分辨率。

  1. 主干网络
    EfficientDet-B0 到B6使用相同的宽度\深度缩放系数,这样就可以使用预训练权重。
  2. BiFPN
    在这里插入图片描述
    BiFPN的宽度和深度缩放表达式如上图所示,1.35是一组参数中选出最好的。
  3. Box/class prediction network
    宽度和BiFPN的宽度一样, 深度增加公式如下图,[]中表达式向下取整。
    在这里插入图片描述
  4. Resolution
    在这里插入图片描述
    EfficientDet D0-D6的缩放配置
    与单一因素缩放的比较

4、实验

训练未使用数据集放大方法。
EfficientDet在COCO数据集上的表现
在这里插入图片描述
在这里插入图片描述

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

EfficientDet阅读笔记 的相关文章

随机推荐