深度学习(一):激活函数、反向传播和学习率

一、激活方法(Activation Functions) 给定一个或者一组输入的节点的输出 1.ReLU 2. Sigmoid/Logistic 3.Binary 4.Tanh 5.Softplus 6.softmax 7.Maxout 8.Leaky ReLU, PReLU, RReLU, ELU, SELU, and others. 二、反向传播(Backpropagation) 1.这是一种
相关文章
相关标签/搜索