tf -- activations -- relu

整流线性单元。 使用默认值,它返回按元素的max(x, 0)。 否则,它遵循: 如果 x >= max_value:f(x) = max_value, 如果 threshold <= x < max_value:f(x) = x, 否则:f(x) = alpha * (x - threshold)。 参数: x:张量或变量。 alpha:标量,负值部分的斜率(默认= 0.)。 max_value:
相关文章
相关标签/搜索