CNN理解(一)

之前说过了DNN,大家也对神经网络有了一个大概的了解,知道了什么叫做前向传播,什么叫做反向传播。我们可以类比的进行卷积(CNN)的学习。 首先,回想一下DNN全连接神经网络的前向传播。 可以看到,在DNN中,每一层的参数(输入层)或者计算结果(中间层)都会直接传给下一层的所有神经元,如此反复,直到最后一层的输出层得到结果。 而CNN呢? 他也是和DNN一样,每一层的参数(输入层)或者计算结果(中间
相关文章
相关标签/搜索