ReLU 和 MaxOut 网络

文章目录 1 sigmoid激活函数的不足之处 2. Relu 3. Relu的变种 3.1 LeakReLU 3.2 PReLU 3.3 RReLU 4. MaxOut 网络 4.1 与ReLU的关系 4.2 可能训练处激活函数的样子 4.3 MaxOut 的训练 1 sigmoid激活函数的不足之处 在网络结构非常深的情况下,由于梯度消失问题的存在,可能会导致靠近输入附近的隐藏层的权重变化较慢
相关文章
相关标签/搜索