深度学习基础面试问题汇总

第一部分:深度学习 1、神经网络基础问题 (1)Backpropagation(要能推倒) 后向传播是在求解损失函数L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一层一层的求导。这里重点强调:要将参数进行随机初始化而不是全部置0,否则所有隐层的数值都会与输入相关,这称为对称失效。 大致过程是: 首先前向传导计算出所有节点的激活值和输出值, 计算整体损失函数: 然后针对第L层的每个节点计
相关文章
相关标签/搜索