关于卷积神经网络该如何理解的一些思考

最近思考了一下关于“卷积神经网络”该如何去理解的问题。很多文章说,越到后边的卷积层,就会有组合多个特征的能力。但是我们每个卷积层不是有很多卷积核吗,每个卷积核不是滤波器吗,前几层把特征都滤掉了。怎么得到的如下所示的图? 后来我想到可以这样理解:假设一个卷积核可以过滤出横线,而且过滤效果非常好,那么图像经过它之后应该就变成一堆长短不一的横线。假设一个卷积核可以过滤出竖线,而且过滤效果非常好,那么图像
相关文章
相关标签/搜索