Andrew Ng's deeplearning Course2Week2 Optimization algorithms(优化算法)

优化算法能帮助我们快速训练模型 一、mini-batch梯度下降法 1.batch vs mini-batch 向量化能让你相对快速的处理m个样本,但是当m比较大时,例如5000000,速度可能就会比较慢了。因此,我们将m个样本切分成一块一块的,这就是mini-batch,而原先不切分的形式就是batch。X{t},Y{t}:我们用X{t}和Y{t}分别表示X和Y的第t块样本集。 2.mini-b
相关文章
相关标签/搜索