(CNN)卷积神经网络(二)

卷积计算层 1.1卷积的通俗理解-为什么参数会大大减少 1.2卷积的计算 ReLu激励层/ReLu layer 2.1 为什么要用激励层? 2.2 sigmoid函数 2.3 tanh函数 2.4 RELU 2.5 Leaky-Relu 2.6 maxout 2.7 所有激活函数汇总 上一篇文章((CNN)卷积神经网络(一))说了卷积神经网络的层级结构和数据输入层的数据具体是怎么处理的,以及权值应
相关文章
相关标签/搜索