吴恩达老师深度学习笔记第二课(第二周)

第二周优化算法 2.1Mini_batch梯度下降算法 ①向量化可以让你相对较快的处理所有m个样本,但是如果m很大,处理速度仍然缓慢 ②传统的梯度下降算法,需要先处理所有数据,然后进行下一步梯度下降算法 把训练集分割成小一点的子训练集,这些子集取名为Mini_batch(然后每处理一个子集,就把他传下去进行下一步梯度下降算法),同样也要拆分y训练集。 ③我的理解:就是不再把所有数据向量化一个大向量
相关文章
相关标签/搜索