NNDL: 改进神经⽹络的学习⽅法

万丈高楼平地起,反向传播是深度学习这栋大厦的基石,所以在这块花多少时间都是值得的 前面一章,我们深入理解了反向传播算法如何工作,本章的主要目的是改进神经网络的学习方法,本章涉及的技术包括: 交叉熵代价函数 四种称为 规范化的⽅法(L1 和 L2 规范化,弃权和训练数据的⼈为扩展) 更好的权重初始化⽅法 如何选择神经网络的超参数 交叉熵代价函数 通过前面的学习,我们知道,神经网络一直在努力地让代价函
相关文章
相关标签/搜索