由浅到深的神经网络正向传播与反向传播公式推导(吴恩达老师深度学习课程笔记)

一、前言(相关知识总结) 反向传播的本质是链式法则。 代价函数:为了训练逻辑回归模型的参数w参数和参数b我们需要一个代价函数J(w,b),通过训练代价函数来得到参数w和参数b。 反向传播也是求梯度的过程,其中梯度下降法可以在你的测试集上,通过最小化代价函数(成本函数)J(w,b)来训练参数w和b。(梯度下降法后面补充) 因为正向传播公式无需过多推导,所以在这只显示公式结果,不多赘述。 二、Logi
相关文章
相关标签/搜索