神经网路的优化(1)----激活函数:梯度消失问题、ReLU、Maxout

一、sigmoid函数会导致梯度消失问题                                                                                          点击此处返回总目录 二、ReLU激活函数 三、Maxout network     刚才我们说,在deep learning的recipe里面,有两个问题。所以等一下,我们就这两个
相关文章
相关标签/搜索