深入理解卷积层,全连接层的作用意义「建议收藏」

有部分内容是转载的知乎的,如有侵权,请告知,删除便是,但由于是总结的,所以不一一列出原作者是who。

再次感谢,也希望给其他小白受益。

首先说明:可以不用全连接层的。

理解1:

卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。

因为用到了所有的局部特征,所以叫全连接。

理解2:

从卷积网络谈起,卷积网络在形式上有一点点像咱们正在召开的“人民代表大会制度”。卷积核的个数相当于候选人,图像中不同的特征会激活不同的“候选人”(卷积核)。

池化层(仅指最大池化)起着类似于“合票”的作用,不同特征在对不同的“候选人”有着各自的喜好。

全连接相当于是“代表普选”。所有被各个区域选出的代表,对最终结果进行“投票”,全连接保证了receiptive field 是整个图像,既图像中各个部分(所谓所有代表),都有对最终结果影响的权利。

理解3:

假设你是一只小蚂蚁,你的任务是找小面包。你的视野还比较窄,只能看到很小一片区域。当你找到一片小面包之后,你不知道你找到的是不是全部的小面包,所以你们全部的蚂蚁开了个会,把所有的小面包都拿出来分享了。全连接层就是这个蚂蚁大会~

理解4:

例如经过卷积,relu后得到3x3x5的输出。

它是怎么样把3x3x5的输出,转换成1×4096的形式?

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

很简单,可以理解为在中间做了一个卷积。

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

从上图我们可以看出,我们用一个3x3x5的filter 去卷积激活函数的输出,得到的结果就是一个fully connected layer 的一个神经元的输出,这个输出就是一个值。因为我们有4096个神经元。我们实际就是用一个3x3x5x4096的卷积层去卷积激活函数的输出。

以VGG-16再举个例子吧,

对224x224x3的输入,最后一层卷积可得输出为7x7x512,如后层是一层含4096个神经元的FC,则可用卷积核为7x7x512x4096的全局卷积来实现这一全连接运算过程。

它把特征representation整合到一起,输出为一个值。

这样做,有一个什么好处?就是大大减少特征位置对分类带来的影响。

举个简单的例子:

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

从上图我们可以看出,猫在不同的位置,输出的feature值相同,但是位置不同。

对于电脑来说,特征值相同,但是特征值位置不同,那分类结果也可能不一样。

这时全连接层filter的作用就相当于

喵在哪我不管,我只要喵,于是我让filter去把这个喵找到,

实际就是把feature map 整合成一个值,这个值大,有喵,这个值小,那就可能没喵

和这个喵在哪关系不大了,鲁棒性有大大增强。

因为空间结构特性被忽略了,所以全连接层不适合用于在方位上找Pattern的任务,比如segmentation。

全连接层中一层的一个神经元就可以看成一个多项式,

我们用许多神经元去拟合数据分布

但是只用一层fully connected layer 有时候没法解决非线性问题,

而如果有两层或以上fully connected layer就可以很好地解决非线性问题了

我们都知道,全连接层之前的作用是提取特征

全理解层的作用是分类

我们现在的任务是去区别一图片是不是猫

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

假设这个神经网络模型已经训练完了

全连接层已经知道

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

当我们得到以上特征,我就可以判断这个东东是猫了。

因为全连接层的作用主要就是实现分类(Classification)

从下图,我们可以看出

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

红色的神经元表示这个特征被找到了(激活了)

同一层的其他神经元,要么猫的特征不明显,要么没找到

当我们把这些找到的特征组合在一起,发现最符合要求的是猫

ok,我认为这是猫了

当我们把这些找到的特征组合在一起,发现最符合要求的是猫

ok,我认为这是猫了

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

猫头有这么些个特征,于是我们下一步的任务

就是把猫头的这么些子特征找到,比如眼睛啊,耳朵啊

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

道理和区别猫一样

当我们找到这些特征,神经元就被激活了(上图红色圆圈)

这细节特征又是怎么来的?

就是从前面的卷积层,下采样层来的

全连接层参数特多(可占整个网络参数80%左右)

那么全连接层对模型影响参数就是三个:

  1. 1,全接解层的总层数(长度)
  2. 2,单个全连接层的神经元数(宽度)
  3. 3,激活函数

首先我们要明白激活函数的作用是:

增加模型的非线性表达能力

深入理解卷积层,全连接层的作用意义「建议收藏」深入理解卷积层,全连接层的作用意义「建议收藏」

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注