马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?我要加入
x
深度可分离卷积 (depthwise separable convolution)
在可分离卷积 (separable convolution) 中,通常将卷积操作拆分成多个步骤。而在神经网络中通常使用的就是深度可分离卷积 (depthwise separable convolution)。
举个例子,假设有一个3×3大小的卷积层,其输入通道为16、输出通道为32。那么一般的操作就是用32个3×3的卷积核来分别同输入数据卷积,这样每个卷积核需要3×3×16个参数,得到的输出是只有一个通道的数据。之所以会得到一通道的数据,是因为刚开始3×3×16的卷积核的每个通道会在输入数据的每个对应通道上做卷积,然后叠加每一个通道对应位置的值,使之变成了单通道,那么32个卷积核一共需要(3×3×16)×32 =4068个参数。
1. 标准卷积与深度可分离卷积的不同
用一张图来解释深度可分离卷积,如下:
可以看到每一个通道用一个filter卷积之后得到对应一个通道的输出,然后再进行信息的融合。而以往标准的卷积过程可以用下面的图来表示:
2. 深度可分离卷积的过程
而应用深度可分离卷积的过程是:
· 用16个3×3大小的卷积核(1通道)分别与输入的16通道的数据做卷积(这里使用了16个1通道的卷积核,输入数据的每个通道用1个3×3的卷积核卷积),得到了16个通道的特征图,我们说该步操作是depthwise(逐层)的。
· 在叠加16个特征图之前,接着用32个1×1大小的卷积核(16通道)在这16个特征图进行卷积运算,将16个通道的信息进行融合(用1×1的卷积进行不同通道间的信息融合),我们说该步操作是pointwise(逐像素)的。这样我们可以算出整个过程使用了3×3×16+(1×1×16)×32 =656个参数。
3. 深度可分离卷积的优点
可以看出运用深度可分离卷积比普通卷积减少了所需要的参数。重要的是深度可分离卷积将以往普通卷积操作同时考虑通道和区域改变成卷积先只考虑区域,然后再考虑通道,实现了通道和区域的分离。
分组卷积 (Group convolution)
Group convolution分组卷积,最早在AlexNet中出现,由于当时的硬件资源有限,训练AlexNet时卷积操作不能全部放在同一个GPU处理,因此作者把feature maps分给多个GPU分别进行处理,最后把多个GPU的结果进行融合。
1. 什么是分组卷积
在说明分组卷积之前我们用一张图来体会一下一般的卷积操作。
从上图可以看出,一般的卷积会对输入数据的整体一起做卷积操作,即输入数据:H1×W1×C1;而卷积核大小为h1×w1,一共有C2个,然后卷积得到的输出数据就是H2×W2×C2。这里我们假设输出和输出的分辨率是不变的,主要看这个过程是一气呵成的,这对于存储器的容量提出了更高的要求。
但是分组卷积明显就没有那么多的参数。先用图片直观地感受一下分组卷积的过程。对于上面所说的同样的一个问题,分组卷积就如下图所示。
可以看到,图中将输入数据分成了2组(组数为g),需要注意的是,这种分组只是在深度上进行划分,即某几个通道编为一组,这个具体的数量由 (C1/g) 决定。因为输出数据的改变,相应的卷积核也需要做出同样的改变。即每组中卷积核的深度也就变成了 (C1/g),而卷积核的大小是不需要改变的,此时每组的卷积核的个数就变成了(C2/g) 个,而不是原来的C2了。
然后用每组的卷积核同它们对应组内的输入数据卷积,得到了输出数据以后,再用concatenate的方式组合起来,最终的输出数据的通道仍旧是C2。也就是说,分组数g决定以后,那么我们将并行的运算g个相同的卷积过程,每个过程里(每组),输入数据为H1×W1×C1/g,卷积核大小为h1×w1×C1/g,一共有C2/g个,输出数据为H2×W2×C2/g。
2. 分组卷积具体的例子
从一个具体的例子来看,Group conv本身就极大地减少了参数。比如当输入通道为256,输出通道也为256,kernel size为3×3,不做Group conv参数为256×3×3×256。实施分组卷积时,若group为8,每个group的input channel和output channel均为32,参数为8×32×3×3×32,是原来的八分之一。而Group conv最后每一组输出的feature maps应该是以concatenate的方式组合。
Alex认为group conv的方式能够增加 filter之间的对角相关性,而且能够减少训练参数,不容易过拟合,这类似于正则的效果。
空洞(扩张)卷积 (Dilated/Atrous Convolution)
空洞卷积 (dilated convolution) 是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。
利用添加空洞扩大感受野,让原本3×3的卷积核,在相同参数量和计算量下拥有5×5 (dilated rate =2) 或者更大的感受野,从而无需下采样。扩张卷积 (dilated convolutions) 又名空洞卷积 (atrous convolutions),向卷积层引入了一个称为 “扩张率 (dilation rate)”的新参数,该参数定义了卷积核处理数据时各值的间距。换句话说,相比原来的标准卷积,扩张卷积 (dilated convolution) 多了一个hyper-parameter (超参数) 称之为dilation rate(扩张率),指的是kernel各点之前的间隔数量(正常的convolution 的 dilatation rate为1)。
图说空洞卷积的概念:
(a) 图对应3x3的1-dilated conv,和普通的卷积操作一样;(b) 图对应3×3的2-dilated conv,实际的卷积kernel size还是3×3,但是空洞为1,需要注意的是空洞的位置全填进去0,填入0之后再卷积即可(此变化见下图);(c) 图是4-dilated conv操作。
在上图中扩张卷积的感受野可以由以下公式计算得到
其中,i+1表示dilated rate。
比如上图中(a),dilated=1,F(dilated) = 3×3;图(b)中,dilated=2,F(dilated) = 7×7;图(c)中,dilated=4, F(dilated) = 15×15。dilated=2时具体的操作,即按照下图在空洞位置填入0之后,然后直接卷积就可以了。
空洞卷积的动态过程:
在二维图像上直观地感受一下扩张卷积的过程:
上图是一个扩张率为2的3×3卷积核,感受野与5×5的卷积核相同,而且仅需要9个参数。你可以把它想象成一个5×5的卷积核,每隔一行或一列删除一行或一列。
在相同的计算条件下,空洞卷积提供了更大的感受野。空洞卷积经常用在实时图像分割中。当网络层需要较大的感受野,但计算资源有限而无法提高卷积核数量或大小时,可以考虑空洞卷积。
1. Dilated Convolution感受野指数级增长
对于标准卷积核情况,比如用3×3卷积核连续卷积2次,在第3层中得到1个Feature点,那么第3层这个Feature点换算回第1层覆盖了多少个Feature点呢?
第3层:
第2层:
第1层:
第一层的一个5×5大小的区域经过2次3×3的标准卷积之后,变成了一个点。也就是说从size上来讲,2层3*3卷积转换相当于1层5*5卷积。题外话,从以上图的演化也可以看出,一个5×5的卷积核是可以由2次连续的3×3的卷积代替。
但对于dilated=2,3*3的扩张卷积核呢?
第3层的一个点:
第2层:
可以看到第一层13×13的区域,经过2次3×3的扩张卷积之后,变成了一个点。即从size上来讲,连续2层的3×3空洞卷积转换相当于1层13×13卷积。
转置卷积 (transposed Convolutions)
转置卷积 (transposed Convolutions) 又名反卷积 (deconvolution) 或是分数步长卷积(fractially straced convolutions)。反卷积 (Transposed Convolution, Fractionally Strided Convolution or Deconvolution) 的概念第一次出现是Zeiler在2010年发表的论文Deconvolutional networks中。
1. 转置卷积和反卷积的区别
那什么是反卷积?从字面上理解就是卷积的逆过程。值得注意的反卷积虽然存在,但是在深度学习中并不常用。而转置卷积虽然又名反卷积,却不是真正意义上的反卷积。因为根据反卷积的数学含义,通过反卷积可以将通过卷积的输出信号,完全还原输入信号。而事实是,转置卷积只能还原shape大小,而不能还原value。你可以理解成,至少在数值方面上,转置卷积不能实现卷积操作的逆过程。所以说转置卷积与真正的反卷积有点相似,因为两者产生了相同的空间分辨率。但是又名反卷积 (deconvolutions) 的这种叫法是不合适的,因为它不符合反卷积的概念。
转置卷积的动态图:
△卷积核为3×3、步幅为2和无边界扩充的二维转置卷积
需要注意的是,转置前后padding,stride仍然是卷积过程指定的数值,不会改变。
2. 举个例子
由于上面只是理论的说明了转置卷积的目的,而并没有说明如何由卷积之后的输出重建输入。下面我们通过一个例子来说明感受下。
比如有输入数据:3×3,Reshape之后,为A:1×9,B(可以理解为滤波器):9×4 (Toeplitz matrix),那么A*B=C:1×4;Reshape C=2×2。所以,通过B卷积,我们从输入数据由shape=3×3变成了shape=2×2。反过来。当我们把卷积的结果拿来做输入,此时A:2×2,reshape之后为1×4,B的转置为4×9,那么A*B=C=1×9,注意此时求得的C,我们就认为它是卷积之前的输入了,虽然存在偏差,然后reshape为3×3。所以,通过B的转置 - “反卷积”,我们从卷积结果shape=2×2得到了shape=3×3,重建了分辨率。
也就是输入feature map A=[3,3]经过了卷积B=[2,2],输出为 [2,2],其中padding=0,stride=1,反卷积(转置卷积)则是输入feature map A=[2,2],经过了反卷积滤波B=[2,2],输出为[3,3]。其中padding=0,stride=1不变。那么[2,2]的卷积核(滤波器)是怎么转化为[4,9]或者[9,4]的呢?通过Toeplitz matrix。
至于这其中Toeplitz matrix是个什么东西,此处限于篇幅就不再介绍了。但即使不知道这个矩阵,转置卷积的具体工作也应该能够明白的。
原文链接:
https://blog.csdn.net/chaolei3/article/details/79374563
来源:chaolei_9527的CSDN博客
|