tf.nn 激活函数

tf.nn.sigmoid() tf.nn.tanh() tanh函数解决了Sigmoid函数的不是zero-centered输出问题,但梯度消失(gradient vanishing)的问题和幂运算的问题仍然存在。 tf.nn.relu() tf.nn.relu(features, name=None) 这个函数的作用是计算激活函数 relu,即 max(features, 0)。将大于0的保持
相关文章
相关标签/搜索