深度学习笔记——理论与推导之DNN(三)

DNN 目录 激励函数(ReLU以及ReLU的变形,梯度消失问题) 成本函数 数据处理 优化 一般化 激励函数: Rectified Linear Unit(ReLU) 选择Relu的原因: 计算速度快 生物原因 类似于具有不同偏差的无限个sigmoid 可以解决梯度消失问题 sigmoid的问题(梯度消失问题): sigmoid function的微分函数是蓝色的线,我们可以发现,蓝线上的所有值
相关文章
相关标签/搜索