02改善深层神经网络-Optimization+methods-第二周编程作业1

【注意】“opt_utils.py”文件的第73行,最后部分“np.sqrt(2 / layer_dims[l-1]”要写成“np.sqrt(2.0 / layer_dims[l-1]”!!! 因为这个被坑了一晚上QAQ……   讨论了不同的梯度下降方法:批处理下降和随机梯度下降。 讨论了三种不同的优化方法:Gradient descent、Momentum和Adam。 #coding=utf-8
相关文章
相关标签/搜索