吴恩达 深度学习 梯度下降法

关于梯度下降法 在这个是关于w和b的两个变量 因此产生的代价函数J是三维的 那么在这里我们对w和b来进行梯度下降法 就可以得到最优解 三维的不是很直观 因此下面将采用二维的来进行说明梯度下降法 如图所示 在这里你可以理解为先固定齐整一个参数 对另外一个参数进行更新 则关于代价函数 变成了一个二维的图形 如上图所示 那么二维图形就将直观很多 比如这里固定的是b 则是关于一个w的函数 那么求w函数的最
相关文章
相关标签/搜索