Tensorflow学习笔记之tf.nn.relu

Tensorflow学习笔记之tf.nn.relu 关于Tensorflow的学习笔记大部分为其他博客或者书籍转载,只为督促自己学习。 线性整流函数(Rectified Linear Unit,ReLU),又称修正线性单元。其定义如下图,在横坐标的右侧,ReLU函数为线性函数。在横坐标的左侧,ReLU函数值为0。 因此tf.nn.relu()的目的就是将输入小于0的值设为1,输入大于0的值不变。
相关文章
相关标签/搜索