吴恩达-DeepLearning.ai-Course2-Week2笔记

本周主要讲解加速神经网络的算法 1.小批量梯度下降算法(mini-batch gradient descent) 如果你得训练集数量巨大,500万或者上千万,梯度下降算法会非常慢,如果你让梯度下降在处理完整个巨型的500万训练集之前就开始有所成效,具体来说:首先将你的训练集拆分成更小的微小的训练集,即小批量训练集(mini-batch),注意新符号的引入和维度 所以一共有5000个小批量样例,对于
相关文章
相关标签/搜索