On this page

    Abstract

    DenseNet在前馈神经网络中每层都连接到其它层。

    普通网络L层网络有L条连接, DenseNet有L(L+1)/2条连接。

    对于每一层,它前面层的特征都作为它的输入, 它的输出特征作为后面层的输入。

    DenseNet有几大优势:

    Introduction

    一个新的研究问题

    当输入和梯度穿过多层网络后, 随着深度的增加, 它们到达网络的最后的时候消失了

    提出一种新的结构:

    传统的网络和DenseNet:

    除了参数效率外, DenseNet的另一个优势是网络中信息和梯度的流动的提升, 这使得它们更容易训练:

    Related Work

    增加深度:

    增加宽度:

    特征复用:

    DenseNet

    网络由L层组成,每层执行一个非线性变换H_l(·), H由BN、ReLU、Conv组成

    ResNets:

    \[x_l = H_l(x_{l-1}) + x_{l-1}\]

    Dense connectivity:

    \[x_l = H_l([x_0, x_1, ..., x_{l-1}])\]

    Composite function: BN+ReLU+Conv

    Pooling layers:

    Growth rate:

    Bottleneck layers:

    Compression:

    Implementation Details:

    在其他数据集:

    在ImageNet数据集上:

    Experiments

    Training:

    Classification Results on CIFAR and SVHN:

    Accuracy:

    Capacity: 没有compression或者bottleneck层, DenseNet随着L和k的增加表现变好。他们将此归因于模型容量的增长。

    Parameter Efficiency: DenseNet-BC 的 bottleneck结构 和 transition 层的维度减少 特别使得参数更有效率。

    Overfitting: 更有效地利用参数意味着DenseNet更不容易过拟合

    Classification Results on ImageNet : DenseNet201有20M参数产生与超过40M参数的101层ResNet相似的验证错误!

    DenseNet