Tensorflow05-激活函数、优化器、过拟合和Dropout

1.激活函数 激活函数用于在线性组合之后添加非线性因素。在我看来,相当于扩大不同类数据之间的差距。称之为“激活”,就是让一类数据激活一个条件得到一个显著不同的输出。 激活函数把卷积后的结果压缩到某一个固定的范围,这样可以一直保持一层一层下去的数值范围是可控的。 常见的激活函数有如下: tf.nn.relu(features, name=None) tf.nn.relu6(features, nam
相关文章
相关标签/搜索