反卷积
反卷积是指通过测量输出已知输入重构未知输入的过程。在神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积网络模型,没有学习训练的过程。如下图:即为VGG16反卷积神经网络的结构,展示了一个卷积网络与反卷积网络结合的过程。
反卷积就是将中间的数据,按照前面卷积、池化等过程,完全相反地做一遍,从而得到类似原始输入的数据。
反卷积原理
反卷积可以理解为卷积操作的逆操作。千万不要将反卷积操作可以复原卷积操作的输入值,反卷积并没有这个功能,它仅仅是将卷积变换过程中的步骤反向变换一次。通过将卷积核转置,与卷积后的结果再做一遍卷积,所以反卷积还有个名字叫做转置卷积。
反卷积操作:
(1) 首先是将卷积核反转( 并不是转置,而是上下左右方向进行递序操作)。也就是对卷积核做180o翻转。
(2) 再将卷积结果作为输入, 做补0的扩充操作, 即往每一个元素后面补0。 这一步是根据步长来的, 对每一个元素沿着步长的方向补( 步长-1) 个0。 例如, 步长为1就不用补0了。
(3) 在扩充后的输入基础上再对整体补0。以原始输入的shape作为输出, 按照前面介绍的卷积padding规则, 计算pading的补0位置及个数, 得到的补0位置要上下和左右各自颠倒一下。
(4) 将补0后的卷积结果作为真正的输入,反转后的卷积核为filter, 进行步长为1的卷积操作。
需要注意的是,通过反卷积并不能还原卷积之前的矩阵,只能从大小上进行还原,反卷积的本质还是卷积,只是在进行卷积之前,会进行一个自动的padding补0,从而使得输出的矩阵与指定输出矩阵的shape相同。框架本身,会根据我们自己设定的反卷积值来计算输入矩阵的尺寸,如果shape不符合,会出现报错。
反卷积函数
在Tensorflow中,反卷积是通过函数tf.nn.conv2d_transpose来实现的。
conv2d_transpose(value,filter,output_shape,strides,padding=”SAME”,data_format=”NHWC”,name=None):
value:代表卷积操作之后的张量,需要进行反卷积的矩阵
filter:代表卷积核,参数格式[height,width,output_channels,in_channels]
output_shape:设置反卷积输出矩阵的shape
strides:反卷积步长
padding:补0方式,SAME和VALID方式
data_format:string类型的量,’NHWC’和’NCHW’其中之一,这是tensorflow新版本中新加的参数,它说明了value参数的数据格式。’NHWC’指tensorflow标准的数据格式[batch, height, width, in_channels],‘NCHW’指Theano的数据格式,[batch, in_channels,height, width],默认值是’NHWC’。
name:操作名称
1 | import numpy as np |
反卷积应用场景
由于反卷积的特性,可以用于信道均衡、图像恢复等问题。而在神经网络的研究中, 反卷积更多的是充当可视化的作用。 对于一个复杂的深度卷积网络,通过每层若干个卷积核的变换, 我们无法知道每个卷积核关注的是什么, 变换后的特征是什么样子。 通过反卷积的还原, 可以对这些问题有个清晰的可视化, 以各层得到的特征图作为输入, 进行反卷积, 得到反卷积结果, 用以验证显示各层提取到的特征图。
反池化
反池化属于池化的逆操作,是无法通过池化的结果还原出全部的原始数据。因为池化的过程就是只保留主要信息,舍去部分信息。如想从池化后的这些主要信息恢复出全部信息,则存在信息缺失,这时只能通过补位来实现最大程度的信息完整
反池化原理
池化有两种最大池化和平均池化,反池化与其对应。
反平均池化比较简单。首先还原成原来的大小,然后将池化结果中的每个值都填入其对应于原始数据区域中的相应未知即可。
反最大池画要求在池化过程中记录最大激活值的坐标位置,然后在反池化时,只把池化过程中最大激活值所在位置坐标的值激活,其它的值置为0。这个过程只是一种近似,因为在池化过程中,除了最大值所在的位置,其它的值是不为0的
反池化操作
Tensorflow中没有反池化操作的函数。对于最大池化,也不支持输出最大激活值的位置,但是同样有个池化的反向传播函数tf.nn.max_pool_with_argmax。该函数可以输出位置,需要我们自己封装一个反池化函数。
首先重新定义最大池化函数:
1 | def max_pool_with_argmax(net, stride): |
在上面代码里,先调用tf.nn.max_pool_with_argmax函数获得每个最大值的位置mask,再将反向传播的mask梯度停止,接着再用tf.nn.max_pool函数计算最大池化操作,然后将mask和池化结果一起返回。
注意:tf.nn.max_pool_with_argmax的方法只支持GPU操作,不能在cpu机器上使用。
接下来定义一个数组,并使用最大池化函数对其进行池化操作,比较一下tensorflow自带的tf.nn.max_pool函数是否一样,看看输出的mask
1 | img=tf.constant([ |
从输出结果可以看到,定义的最大池化与原来的版本输出是一样的。mask的值是将整个数据flat(扁平化)后的索引,但却保持与池化结果一致的shape。
1 | def unpool(net, mask, stride): |
上面代码的思路是找到mask对应的索引,将max的值填到指定地方。接着直接调用上面代码的函数:
1 | img2=unpool(encode,mask,2) |
反最大池化整体代码:
1 | import tensorflow as tf |