2020年深度学习激活函数最全盘点和解释

文章目录 一、tf.nn.sigmoid: 二、tf.nn.softmax: 三、tf.nn.tanh: (主流)四、tf.nn.relu: 五、tf.nn.leaky_relu: 六、tf.nn.elu: 七、tf.nn.selu: 八、tf.nn.swish: 一、tf.nn.sigmoid: 将实数压缩到0到1之间,一般只在二分类的最后输出层使用。主要缺陷为存在梯度消失问题,计算复杂度高,输
相关文章
相关标签/搜索