对于吴恩达ML课程中Backpropagation计算方法的理解

对于吴恩达ML课程中Backpropagation计算方法的理解 今天在写吴恩达ML第四次作业的时候,感觉计算neural network中损失函数J对theta的偏微分太难理解了。。和玄学一样,看视频的时候也晕晕乎乎的,不知道那些式子是怎么来的。。想起寒假在B站上看的李宏毅讲的一节课,回过头去看了看,这才明白了吴恩达课程中给出的那些公式的推导过程。 上面两张是吴恩达ML课程中给出的计算梯度的过程
相关文章
相关标签/搜索