深度学习之池化与激活函数

保留图像最显著的特征,不会影响,且可以减少参数(利用了图像数据的联系) 池化层无参数,相当于一种算法 由于卷积层(如F=64)输出的通道数会增加,为了数据变小,所以加个池化层降低数据,但是通道数和池化层一样 API 激活函数 前四个是激活函数特点 最后一个前三用的最多 和线性回归时知识相同 会出现几个如图缺点,当数据很大时,第一个所得值都相似,第二个趋于零时,对于反向学习中梯度下降求导是不科学的。
相关文章
相关标签/搜索