在一些书籍和博客中所讲的卷积(一个卷积核和输入的对应位置相乘,而后累加)不是真正意义上的卷积。根据离散卷积的定义,卷积核是须要旋转180的。html
按照定义来讲,一个输入和一个卷积核作卷积操做的流程是:ide
①卷积核旋转180spa
②对应位置相乘,而后累加code
举例htm |
下面这个图是常见的卷积运算图:blog
中间的卷积核,实际上是已经旋转过180度的ip
即,作卷积的两个矩阵实际上是ci
[[2, 1, 0, 2, 3],get
[9, 5, 2, 2, 0],input
[2, 3, 4, 5, 6],
[1, 2, 3, 1, 0],
[0, 4, 4, 2, 8]]
和
[[1, 0, -1],
[1, 0, -1],
[1, 0, -1]]
没有旋转只有乘积求和就不叫卷积运算。
可是,在tensorflow中以为这样很纠结,因此干脆定义的卷积核直接就是旋转后的卷积核,因此tensorflow能够直接对应位置相乘,而后相加
import tensorflow as tf # [batch, in_height, in_width, in_channels] input = tf.constant([ [2, 1, 0, 2, 3], [9, 5, 4, 2, 0], [2, 3, 4, 5, 6], [1, 2, 3, 1, 0], [0, 4, 4, 2, 8], ], tf.float32) input = tf.reshape(input, [1, 5, 5, 1]) #定义旋转180后的卷积核 # [filter_height, filter_width, in_channels, out_channels] kernel = tf.constant([ [-1, 0, 1], [-1, 0, 1], [-1, 0, 1] ], tf.float32) kernel = tf.reshape(kernel, [3, 3, 1, 1]) print(tf.Session().run(tf.nn.conv2d(input,kernel,[1,1,1,1],"VALID"))) [[[[-5.] [ 0.] [ 1.]] [[-1.] [-2.] [-5.]] [[ 8.] [-1.] [ 3.]]]]
而在scipy中,是按照严格的卷积定义来的,你定义了一个卷积核后,scipy要先将你的卷积核旋转180度,而后才对应位置相乘,再相加。
import numpy as np from scipy import signal input = np.array([ [2, 1, 0, 2, 3], [9, 5, 4, 2, 0], [2, 3, 4, 5, 6], [1, 2, 3, 1, 0], [0, 4, 4, 2, 8] ]) #定义未经旋转的卷积核 kernel = np.array([ [1, 0, -1], [1, 0, -1], [1, 0, -1] ]) # kernel1 = np.flip(kernel1) print(signal.convolve(input, kernel, mode="valid")) [[-5 0 1] [-1 -2 -5] [ 8 -1 3]]
结论 |
若是你定义的是旋转180度后的卷积核,那就直接对应位置相乘再相加
若是你定义的是未经旋转的卷积核,那须要先旋转180,再对应位置相乘再相加
市面上的参考书大部分描述的卷积核都是旋转后的卷积核,个人博客中也是这样,由于这样更容易理解,否则作一次卷积,你是很难直观看出来结果的。
参考资料 |
什么!卷积要旋转180度?!
https://www.jianshu.com/p/8dfe02b61686
二维卷积的计算原理