CNN中的参数记录(上)

最近用Keras写模型,其实CNN的结构相对来说还是比较容易理解的,无非就是参数的抉择 1.activition 就是激活函数啦,激活函数就是为了增加神经网络的非线性,不让它产生过拟合,常用的也就那么几种,relu,softmax,sigmoid,tanh,一般来说paper中用的较多的是relu,softmax,sigmoid 2.padding 这个在卷积层和池化层都是可选项,padding=
相关文章
相关标签/搜索