tensorflow学习笔记(2):激活函数

官方解释: http://www.tensorfly.cn/tfdoc/api_docs/python/nn.html tf.nn.relu(features, name=None) ReLU由于非负区间的梯度为常数,因此不存在梯度消失问题(Vanishing Gradient Problem),使得模型的收敛速度维持在一个稳定状态。 优点: 收敛速度会比 sigmoid/tanh 快。 缺点:
相关文章
相关标签/搜索